Parabéns!

Trabalhando com Llama 3

Imtihan Ahmed

Machine Learning Engineer

Vamos relembrar

Etapa 1 - rodar o Llama localmente

from llama_cpp import Llama

llm = Llama(model_path = "path/to/model.gguf")
Trabalhando com Llama 3

Vamos relembrar

Etapa 2 - ajustar parâmetros

$$

  • Parâmetros temperature, top_k, top_p
Trabalhando com Llama 3

Vamos relembrar

Etapa 3 - definir papéis

message_list = [{"role": "system", "content": system_message},
               {"role": "user", "content": user_message}]
Trabalhando com Llama 3

Vamos relembrar

Etapa 4 - guiar saídas

  • Prompts precisos
  • Palavras de stop
  • Zero-shot/Few-shot prompting
Trabalhando com Llama 3

Vamos relembrar

Etapa 5 - explorar respostas em JSON $$

response_format = {"type": "json_object"}
Trabalhando com Llama 3

Vamos relembrar

Etapa 6 - criar conversas de múltiplas voltas

  • Classe Conversation
  • Método .create_completion()
Trabalhando com Llama 3

O que vem a seguir?

Trabalhando com Llama 3

Obrigado!

Trabalhando com Llama 3

Preparing Video For Download...