Protegiendo los LLM

Introducción a los LLMs en Python

Jasmin Ludolf

Senior Data Science Content Developer, DataCamp

Retos de los LLM

Soporte multilingüe: diversidad lingüística, disponibilidad de recursos, adaptabilidad

Soporte multilingüe

Dilema LLM abiertos vs cerrados: colaboración vs uso responsable

LLM abiertos vs cerrados

Escalabilidad del modelo: capacidad de representación, demanda computacional, requisitos de entrenamiento

Escalabilidad de LLM

Sesgos: datos de entrenamiento sesgados, comprensión y generación injustas

Sesgos en LLM

1 Icono creado por Freepik (freepik.com)
Introducción a los LLMs en Python

Veracidad y alucinaciones

  • Alucinaciones: el texto generado contiene información falsa o sin sentido como si fuera correcta

Alucinaciones en LLM

Estrategias para reducir alucinaciones en LLM:

  1. Exposición a datos de entrenamiento diversos y representativos
  2. Auditorías de sesgos en salidas + técnicas de mitigación
  3. Ajuste fino a casos de uso, sobre todo en aplicaciones sensibles
  4. Ingeniería de prompts: diseñar y refinar prompts con cuidado
Introducción a los LLMs en Python

Veracidad y alucinaciones

  • Alucinaciones: el texto generado contiene información falsa o sin sentido como si fuera correcta

Alucinaciones en LLM

Introducción a los LLMs en Python

Métricas para analizar sesgos en LLM: toxicidad

  • Toxicidad: cuantifica la toxicidad del texto con un clasificador de discurso de odio preentrenado
  • aggregation="maximum" devuelve la toxicidad máxima entre las entradas
  • aggregation="ratio" devuelve el % de predicciones con toxicidad > 0.5
toxicity_metric = load("toxicity")
texts_1 = ["Everyone in the team adores him", "He is a true genius, pure talent"]
texts_2 = ["Nobody in the team likes him", "He is a useless 'good-for-nothing'"]

toxicity_results_1 = toxicity_metric.compute(predictions=texts_1,aggregation="maximum") toxicity_results_2 = toxicity_metric.compute(predictions=texts_2, aggregation="maximum") print("Toxicity Sentences 1:", toxicity_results_1) print("Toxicity Sentences 2:", toxicity_results_2)
Toxicity Sentences 1: {'max_toxicity': 0.0001386617950629443}
Toxicity Sentences 2: {'max_toxicity': 0.012273495085537434}
Introducción a los LLMs en Python

Métricas para analizar sesgos en LLM: regard

  • Regard: polaridad del lenguaje y percepción sesgada hacia ciertos grupos demográficos

  • Evalúa las puntuaciones de regard en salidas de LLM asociadas a dos grupos por separado

regard = load("regard")

group1 = ['abc are described as loyal employees',
          'abc are ambitious in their career expectations']
group2 = ['abc are known for causing lots of team conflicts',
          'abc are verbally violent']


polarity_results_1 = regard.compute(data=group1) polarity_results_2 = regard.compute(data=group2)
Introducción a los LLMs en Python

Métricas para analizar sesgos en LLM: regard

for result in polarity_results_1['regard']:
  print(result)
[{'label': 'positive', 'score': 0.9098386764526367}, 
 {'label': 'neutral', 'score': 0.059396952390670776}, 
 {'label': 'other', 'score': 0.026468101888895035}, 
 {'label': 'negative', 'score': 0.004296252969652414}]
[{'label': 'positive', 'score': 0.7809812426567078}, 
 {'label': 'neutral', 'score': 0.18085983395576477}, 
 {'label': 'other', 'score': 0.030492952093482018}, 
 {'label': 'negative', 'score': 0.007666013203561306}]
for result in polarity_results_2['regard']:
  print(result)
[{'label': 'negative', 'score': 0.9658734202384949}, 
 {'label': 'other', 'score': 0.021555885672569275}, 
 {'label': 'neutral', 'score': 0.012026479467749596},
 {'label': 'positive', 'score': 0.0005441228277049959}]
[{'label': 'negative', 'score': 0.9774736166000366}, 
 {'label': 'other', 'score': 0.012994581833481789},  
 {'label': 'neutral', 'score': 0.008945506066083908}, 
 {'label': 'positive', 'score': 0.0005862844991497695}]
Introducción a los LLMs en Python

¡Vamos a practicar!

Introducción a los LLMs en Python

Preparing Video For Download...