La librería evaluate

Introducción a los LLMs en Python

Jasmin Ludolf

Senior Data Science Content Developer, DataCamp

La librería evaluate

import evaluate

accuracy = evaluate.load("accuracy")
print(accuracy.description)
La accuracy es la proporción de predicciones
correctas sobre el total de casos procesados.
Se calcula con:
Accuracy = (TP + TN) / (TP + TN + FP + FN)
Donde:
TP: Verdadero positivo
TN: Verdadero negativo
FP: Falso positivo
FN: Falso negativo

 

  • Métrica: evalúa el rendimiento según el ground truth

 

  • Comparación: compara dos modelos

 

  • Medición: aporta información sobre el dataset
Introducción a los LLMs en Python

Atributo features

print(accuracy.features)
{'predictions': Value(dtype='int32', id=None),
 'references': Value(dtype='int32', id=None)}

Inspeccionar los inputs requeridos por una métrica

  • 'predictions': salidas del modelo
  • 'references': ground truth
  • .features: indica el tipo soportado para las clases, p. ej., 'int32' o 'float32'
f1 = evaluate.load("f1")
print(f1.features)
{'predictions': Value(dtype='int32', id=None),
 'references': Value(dtype='int32', id=None)}
pearson_corr = evaluate.load("pearsonr")
print(pearson_corr.features)
{'predictions': Value(dtype='float32', id=None),
'references': Value(dtype='float32', id=None)}
Introducción a los LLMs en Python

Tareas y métricas de LLM

 

Métricas de evaluación para tareas de lenguaje

Introducción a los LLMs en Python

Tareas y métricas de LLM

 

Métricas de evaluación para tareas de lenguaje

Introducción a los LLMs en Python

Métricas de clasificación

accuracy = evaluate.load("accuracy")
precision = evaluate.load("precision")
recall = evaluate.load("recall")
f1 = evaluate.load("f1")
from transformers import pipeline

classifier = pipeline("text-classification", model=model, tokenizer=tokenizer)

predictions = classifier(evaluation_text)

predicted_labels = [1 if pred["label"] == "POSITIVE" else 0 for pred in predictions]
Introducción a los LLMs en Python

Salidas de las métricas

real_labels = [0,1,0,1,1]
predicted_labels = [0,0,0,1,1]

print(accuracy.compute(references=real_labels, predictions=predicted_labels))
print(precision.compute(references=real_labels, predictions=predicted_labels))
print(recall.compute(references=real_labels, predictions=predicted_labels))
print(f1.compute(references=real_labels, predictions=predicted_labels))
{'accuracy': 0.8}
{'precision': 1.0}
{'recall': 0.6666666666666666}
{'f1': 0.8}
Introducción a los LLMs en Python

Evaluar nuestro modelo ajustado

# Carga el modelo y el tokenizador guardados con 
# .from_pretrained("my_finetuned_files")


new_data = ["This is movie was disappointing!", "This is the best movie ever!"] new_input = tokenizer(new_data, return_tensors="pt", padding=True, truncation=True, max_length=64) with torch.no_grad(): outputs = model(**new_input) predicted = torch.argmax(outputs.logits, dim=1).tolist()
real = [0,1]
print(accuracy.compute(references=real,
                       predictions=predicted))
print(precision.compute(references=real,
                        predictions=predicted))
print(recall.compute(references=real,
                     predictions=predicted))
print(f1.compute(references=real, 
                 predictions=predicted))
{'accuracy': 1.0}
{'precision': 1.0}
{'recall': 1.0}
{'f1': 1.0}
Introducción a los LLMs en Python

Elegir la métrica adecuada

 

  • Tenlo en cuenta: cada métrica aporta insights, pero también tiene límites

 

  • Sé completo: usa una combinación de métricas (y KPIs del dominio cuando puedas)

Ilustración de un cerebro con una bombilla que indica atención, pensamiento y toma de decisiones.

Introducción a los LLMs en Python

¡Vamos a practicar!

Introducción a los LLMs en Python

Preparing Video For Download...