Van vectoren naar graafmodellen

Retrieval Augmented Generation (RAG) met LangChain

Meri Nova

Machine Learning Engineer

Beperkingen van vector-RAG

De typische vectorstore-RAG-workflow.

Een tekstballon met "thema’s en relaties".

Retrieval Augmented Generation (RAG) met LangChain

Beperkingen van vector-RAG

De typische vectorstore-RAG-workflow.

Een tekstballon met "schaalbaarheid".

Retrieval Augmented Generation (RAG) met LangChain

Beperkingen van vector-RAG

De typische vectorstore-RAG-workflow.

Een tekstballon met "diverse data integreren".

Retrieval Augmented Generation (RAG) met LangChain

Graafdatabases

Een graaf met verbindingen tussen mensen, plaatsen en interesses.

Retrieval Augmented Generation (RAG) met LangChain

Graafdatabases – knopen

Een graaf met verbindingen tussen mensen, plaatsen en interesses.

Retrieval Augmented Generation (RAG) met LangChain

Graafdatabases – randen

Een graaf met verbindingen tussen mensen, plaatsen en interesses.

Retrieval Augmented Generation (RAG) met LangChain

Neo4j-graafdatabases

 

Het Neo4j-logo.

Het LangChain-logo.

Retrieval Augmented Generation (RAG) met LangChain

Van grafiek naar graaf...

Een graaf met verbindingen tussen mensen, plaatsen en interesses.

Retrieval Augmented Generation (RAG) met LangChain

Van grafiek naar graaf...

barcelona_graph.jpg

Retrieval Augmented Generation (RAG) met LangChain

Van grafiek naar graaf...

barcelona_graph.jpg

Retrieval Augmented Generation (RAG) met LangChain

Wikipedia-pagina’s laden en chunken

from langchain_community.document_loaders import WikipediaLoader
from langchain_text_splitters import TokenTextSplitter

raw_documents = WikipediaLoader(query="large language model").load()

text_splitter = TokenTextSplitter(chunk_size=100, chunk_overlap=20) documents = text_splitter.split_documents(raw_documents[:3]) print(documents[0])
page_content='A large language model (LLM) is a computational model capable of...' 
metadata={'title': 'Large language model',
          'summary': "A large language model (LLM) is...",
          'source': 'https://en.wikipedia.org/wiki/Large_language_model'}
Retrieval Augmented Generation (RAG) met LangChain

Van tekst naar graaf!

from langchain_openai import ChatOpenAI

from langchain_experimental.graph_transformers import LLMGraphTransformer
llm = ChatOpenAI(api_key="...", temperature=0, model_name="gpt-4o-mini")
llm_transformer = LLMGraphTransformer(llm=llm)
graph_documents = llm_transformer.convert_to_graph_documents(documents) print(graph_documents)
Retrieval Augmented Generation (RAG) met LangChain

Van tekst naar graaf!

[GraphDocument(
    nodes=[
        Node(id='Llm', type='Computational model'),
        Node(id='Language Generation', type='Concept'),
        Node(id='Natural Language Processing Tasks', type='Concept'),
        Node(id='Llama Family', type='Computational model'),
        Node(id='Ibm', type='Organization'),
        ..., Node(id='Bert', type='Computational model')],
    relationships=[
        Relationship(source=Node(id='Llm', type='Computational model'),
                     target=Node(id='Language Generation', type='Concept'),
                     type='CAPABLE_OF'),
        ...])]
Retrieval Augmented Generation (RAG) met LangChain

Laten we oefenen!

Retrieval Augmented Generation (RAG) met LangChain

Preparing Video For Download...