Finetunen met TorchTune

Fijn-afstemmen met Llama 3

Francesca Donadoni

Curriculum Manager, DataCamp

De componenten van TorchTune-finetuning

  • Model

    • Bepaalt de architectuur en pretrain-gewichten om te finetunen
    • Verschillende versies en aantal parameters beschikbaar
  • Dataset

    • Specificeert de trainingsdata
  • Recept

    • Centrale configuratie die model, dataset en trainingsparameters combineert
    • Zorgt voor consistentie en reproduceerbaarheid

iStock-2151073200.jpg

iStock-1281282682.jpg

iStock-2173849278.jpg

Fijn-afstemmen met Llama 3

De componenten van TorchTune-finetuning

  • Model

    • !tune ls
      llama3/8B_full
      llama3_1/8B_full
      llama3_2/1B_full ...
      
  • Dataset

    • ds.save_to_disk("new_dataset")
  • Recept

    • custom_recipe.yaml

iStock-2151073200.jpg

iStock-1281282682.jpg

iStock-2173849278.jpg

Fijn-afstemmen met Llama 3

De componenten van een TorchTune-recept

  • Algemene instellingen en outputmap
    • Batchgrootte, device en epochs

 

  • Model
    • Specificeert architectuur en modelconfiguraties

 

  • Optimizer

    • Bevat learning rate
  • Dataset

    • Definieert preprocessing en datasetpad
batch_size: 4
device: cuda
epochs: 20
output_dir: /tmp/full-llama3.2-finetune

model:
  _component_: 
      torchtune.models.llama3_2.llama3_2_1b

optimizer:
  _component_: bitsandbytes.optim.PagedAdamW8bit
  lr: 2.0e-05

dataset:
  _component_: torchtune.datasets.alpaca_dataset
Fijn-afstemmen met Llama 3

TorchTune-recepten configureren

  • Meer parameters beschikbaar
  • In Python te configureren met yaml
import yaml

config_dict = {"batch_size": 4, "device": "cuda", "model": { "_component_": "torchtune.models.llama3_2.llama3_2_1b" }, ... }
yaml_file_path = "custom_recipe.yaml" with open(yaml_file_path, "w") as yaml_file: yaml.dump(config_dict, yaml_file)
Fijn-afstemmen met Llama 3

Aangepast finetunen uitvoeren

tune run --config custom_recipe.yaml
INFO:torchtune.utils.logging:Running 
Writing logs to /tmp/full-llama3.2-finetune/log_1732815689.txt
INFO:torchtune.utils.logging:Model is initialized with precision torch.bfloat16.
INFO:torchtune.utils.logging:Tokenizer is initialized from file.
1|52|Loss: 2.3697006702423096:   0%|▏                     | 52/25880
  • Logs opgeslagen
  • Succesvolle initialisatie
  • Vooruitgang in epochs en stappen
  • Verliesmetrics
Fijn-afstemmen met Llama 3

Laten we oefenen!

Fijn-afstemmen met Llama 3

Preparing Video For Download...