Template di prompt

Sviluppare applicazioni LLM con LangChain

Jonathan Bennion

AI Engineer & LangChain Contributor

Template di prompt

  • Ricette per definire prompt per LLM
  • Possono includere: istruzioni, esempi e contesto aggiuntivo

Un prompt template con segnaposto per variabili di input.

Sviluppare applicazioni LLM con LangChain

Template di prompt

from langchain_core.prompts import PromptTemplate


template = "Expain this concept simply and concisely: {concept}"
prompt_template = PromptTemplate.from_template( template=template )
prompt = prompt_template.invoke({"concept": "Prompting LLMs"}) print(prompt)
text='Expain this concept simply and concisely: Prompting LLMs'
Sviluppare applicazioni LLM con LangChain
llm = HuggingFacePipeline.from_model_id(
    model_id="meta-llama/Llama-3.3-70B-Instruct",
    task="text-generation"
)

llm_chain = prompt_template | llm
concept = "Prompting LLMs" print(llm_chain.invoke({"concept": concept}))
Prompting LLMs (Large Language Models) indica il processo di fornire al modello
un input o una domanda specifica per generare una risposta.
  • LangChain Expression Language (LCEL): operatore | (pipe)
  • Chain: collega chiamate a componenti diversi
Sviluppare applicazioni LLM con LangChain

Modelli chat

  • Ruoli chat: system, human, ai
from langchain_core.prompts import ChatPromptTemplate


template = ChatPromptTemplate.from_messages( [ ("system", "You are a calculator that responds with math."), ("human", "Answer this math question: What is two plus two?"), ("ai", "2+2=4"), ("human", "Answer this math question: {math}") ] )
Sviluppare applicazioni LLM con LangChain

Integrare ChatPromptTemplate

llm = ChatOpenAI(model="gpt-4o-mini", api_key='<OPENAI_API_TOKEN>')


llm_chain = template | llm
math='What is five times five?'
response = llm_chain.invoke({"math": math}) print(response.content)
5x5=25
Sviluppare applicazioni LLM con LangChain

Let's practice!

Sviluppare applicazioni LLM con LangChain

Preparing Video For Download...