Retrieval Augmented Generation (RAG) avec LangChain
Meri Nova
Machine Learning Engineer







vector_store = Chroma.from_documents( documents=chunks, embedding=embedding_model )retriever = vector_store.as_retriever( search_type="similarity", search_kwargs={"k": 2} )
from langchain_core.prompts import ChatPromptTemplateprompt = ChatPromptTemplate.from_template(""" Utilisez les éléments de contexte suivants pour répondre à la question finale. Si vous ne savez pas, dites que vous ne savez pas. Contexte : {context} Question : {question} """)
llm = ChatOpenAI(model="gpt-4o-mini", api_key="...", temperature=0)
from langchain_core.runnables import RunnablePassthrough from langchain_core.output_parsers import StrOutputParserchain = ({"context": retriever, "question": RunnablePassthrough()}| prompt| llm| StrOutputParser())
result = chain.invoke({"question": "What are the key findings or results presented in the paper?"})
print(result)
- Performance de pointe : les modèles RAG établissent de nouveaux records sur les tâches de questions-réponses en domaine ouvert...
- Meilleure génération : les modèles RAG produisent un langage plus spécifique, varié et factuel...
- Utilisation dynamique des connaissances : la mémoire non paramétrique permet aux modèles RAG d’accéder et ...
Retrieval Augmented Generation (RAG) avec LangChain