Metriche per task linguistici: ROUGE, METEOR, EM

Introduzione agli LLM in Python

Jasmin Ludolf

Senior Data Science Content Developer, DataCamp

Task LLM e metriche

 

Metriche di valutazione per task linguistici

Introduzione agli LLM in Python

Task LLM e metriche

 

Metriche di valutazione per task linguistici

Introduzione agli LLM in Python

Task LLM e metriche

 

Metriche di valutazione per task linguistici

Introduzione agli LLM in Python

ROUGE

  • ROUGE: similarità tra un riassunto generato e i riassunti di riferimento
    • Considera n-grammi e overlap
    • predictions: output dell’LLM
    • references: riassunti umani

Confronto tra the cat sat on the mat e the cat is on the mat

Introduzione agli LLM in Python

ROUGE

rouge = evaluate.load("rouge")
predictions = ["""as we learn more about the frequency and size distribution of 
exoplanets, we are discovering that terrestrial planets are exceedingly common."""]
references = ["""The more we learn about the frequency and size distribution of 
exoplanets, the more confident we are that they are exceedingly common."""]

Punteggi ROUGE:

  • rouge1: overlap di unigrammi
  • rouge2: overlap di bigrammi
  • rougeL: lunghe sottosequenze sovrapposte
Introduzione agli LLM in Python

Output ROUGE

Punteggi ROUGE:

  • rouge1: overlap di unigrammi
  • rouge2: overlap di bigrammi
  • rougeL: lunghe sottosequenze sovrapposte

 

  • Punteggi tra 0 e 1: più alto = più somiglianza
results = rouge.compute(predictions=predictions,
                         references=references)

print(results)
{'rouge1': 0.7441860465116279, 
'rouge2': 0.4878048780487805, 
'rougeL': 0.6976744186046512, 
'rougeLsum': 0.6976744186046512}
Introduzione agli LLM in Python

METEOR

  • METEOR: più caratteristiche linguistiche: variazioni di parola, sinonimi e ordine delle parole
bleu = evaluate.load("bleu")
meteor = evaluate.load("meteor")


prediction = ["He thought it right and necessary to become a knight-errant, roaming the world in armor, seeking adventures and practicing the deeds he had read about in chivalric tales."] reference = ["He believed it was proper and essential to transform into a knight-errant, traveling the world in armor, pursuing adventures, and enacting the heroic deeds he had encountered in tales of chivalry."]
Introduzione agli LLM in Python

METEOR

results_bleu = bleu.compute(predictions=pred, references=ref)
results_meteor = meteor.compute(predictions=pred, references=ref)
print("Bleu: ", results_bleu['bleu'])
print("Meteor: ", results_meteor['meteor'])
Bleu:  0.19088841781992524
Meteor:  0.5350702240481536
  • Punteggio 0-1: più alto è meglio
Introduzione agli LLM in Python

Domanda e risposta

 

Metriche di valutazione per task linguistici

Introduzione agli LLM in Python

Exact Match (EM)

  • Exact Match (EM): vale 1 se l’output dell’LLM coincide esattamente con la risposta di riferimento

 

  • Usato di solito insieme alla F1
from evaluate import load
em_metric = load("exact_match")

exact_match = evaluate.load("exact_match")
predictions = ["The cat sat on the mat.",
               "Theaters are great.", 
               "Like comparing oranges and apples."]
references = ["The cat sat on the mat?", 
              "Theaters are great.", 
              "Like comparing apples and oranges."]

results = exact_match.compute(
  references=references, predictions=predictions)
print(results)
{'exact_match': 0.3333333333333333}
Introduzione agli LLM in Python

Ayo berlatih!

Introduzione agli LLM in Python

Preparing Video For Download...