Fine-tuning model dengan Hugging Face

Fine-Tuning dengan Llama 3

Francesca Donadoni

Curriculum Manager, DataCamp

Apa yang dibutuhkan untuk melakukan fine-tuning?

  1. Model bahasa + tokenizer (model LLama, mis. TinyLLama-v0)
  2. Dataset pelatihan (Bitext customer service dataset)
  3. Parameter pelatihan
  4. Lakukan fine-tuning (SFTTrainer dari TRL)
  5. Tolok ukur atau dataset evaluasi

Siklus pelatihan. Pelatihan memerlukan parameter, data, dan model, lalu menghasilkan model yang di-fine-tune. Evaluasi dilakukan dengan model yang di-fine-tune dan dataset evaluasi.

Fine-Tuning dengan Llama 3

Cara memuat model dan tokenizer dengan kelas Auto

model_name="Maykeye/TinyLLama-v0"

model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

tokenizer.pad_token = tokenizer.eos_token
1 https://huggingface.co/docs/transformers/main/en/model_doc/auto
Fine-Tuning dengan Llama 3

Menetapkan parameter pelatihan dengan TrainingArguments

training_arguments = TrainingArguments(

per_device_train_batch_size=1,
learning_rate=2e-3,
max_grad_norm=0.3,
max_steps=200,
... gradient_accumulation_steps=2, save_steps=10,
)
1 https://huggingface.co/docs/transformers/v4.40.1/en/main_classes/trainer#transformers.TrainingArguments
Fine-Tuning dengan Llama 3

Cara menyiapkan pelatihan dengan SFTTrainer

trainer = SFTTrainer(

model=model, tokenizer=tokenizer,
train_dataset=dataset, dataset_text_field='conversation',
max_seq_length=250,
args=training_arguments
)
Fine-Tuning dengan Llama 3

Memahami hasil fine-tuning dengan SFTTrainer

trainer.train()
TrainOutput(global_step=200, training_loss=1.9401231002807617,
            metrics={'train_runtime': 142.5501, 
                     'train_samples_per_second': 2.806,
                     'train_steps_per_second': 1.403, 
                     'total_flos': 1461265827840.0, 
                     'train_loss': 1.9401231002807617, 
                     'epoch': 2.0})
Fine-Tuning dengan Llama 3

Cara mengevaluasi model terlatih dengan ROUGE-1

  • ROUGE-1: Rasio kemiripan kata antara teks acuan dan teks yang dihasilkan
import evaluate

rouge = evaluate.load('rouge')
predictions = ["hello there", "general kenobi"] references = ["hello there", "master yoda"]
results = rouge.compute(predictions=predictions, references=references) print(results)
{'rouge1': 0.5, 'rouge2': 0.5, 'rougeL': 0.5, 'rougeLsum': 0.5}
1 https://huggingface.co/spaces/evaluate-metric/rouge
Fine-Tuning dengan Llama 3

Cara menggunakan skor ROUGE-1

  1. Gunakan set evaluasi di evaluation_dataset
def generate_predictions_and_reference(dataset):
    predictions = []
    references = []
    for row in dataset:
        inputs = tokenizer.encode(row["instruction"], return_tensors="pt")

outputs = model.generate(inputs)
decoded_outputs = tokenizer.decode(outputs[0, inputs.shape[1]:], skip_special_tokens = True)
references += [row["response"]] predictions += [decoded_outputs] return references, predictions
Fine-Tuning dengan Llama 3

Cara menjalankan ROUGE-1 pada set evaluasi

references, predictions = generate_predictions_and_reference(evaluation_dataset)
rouge = evaluate.load('rouge')
results = rouge.compute(predictions=predictions, references=references)
print(results)
Fine-Tuning dengan Llama 3

Fine-tuning vs tanpa fine-tuning

Di-fine-tune

{'rouge1': 0.22425812699023645,
 'rouge2': 0.039502543246449,
 'rougeL': 0.1501513006868983,
 'rougeLsum': 0.18685597710721613}

Tanpa fine-tuning

{'rouge1': 0.1310928764315105,
 'rouge2': 0.04581654122835097,
 'rougeL': 0.08415351421221628,
 'rougeLsum': 0.1224749866097021}
Fine-Tuning dengan Llama 3

Ayo berlatih!

Fine-Tuning dengan Llama 3

Preparing Video For Download...