Considerazioni etiche e guardrail

Introduzione ad Amazon Bedrock

Nikhil Rangarajan

Data Scientist

Perché l’AI etica conta

  • I modelli AI possono perpetuare bias e generare contenuti dannosi

Icona di due donne in rosa che rappresenta il bias di genere

Introduzione ad Amazon Bedrock

Perché l’AI etica conta

  • I modelli AI possono perpetuare bias e generare contenuti dannosi

  • Rischi per la privacy nella gestione di dati sensibili

Icone che rappresentano bias di genere e privacy

Introduzione ad Amazon Bedrock

Perché l’AI etica conta

  • I modelli AI possono perpetuare bias e generare contenuti dannosi

  • Rischi per la privacy nella gestione di dati sensibili

  • Requisiti di conformità legale/regolatoria

Icone che rappresentano bias di genere, privacy e conformità legale

Introduzione ad Amazon Bedrock

Perché l’AI etica conta

  • I modelli AI possono perpetuare bias e generare contenuti dannosi

  • Rischi per la privacy nella gestione di dati sensibili

  • Requisiti di conformità legale/regolatoria

  • Possibile abuso per diffondere disinformazione

Icone che rappresentano bias di genere, privacy, conformità legale e disinformazione

Introduzione ad Amazon Bedrock

Perché l’AI etica conta

  • I modelli AI possono perpetuare bias e generare contenuti dannosi

  • Rischi per la privacy nella gestione di dati sensibili

  • Requisiti di conformità legale/regolatoria

  • Possibile abuso per diffondere disinformazione

  • Reputazione aziendale e fiducia degli stakeholder

Icone che rappresentano bias di genere, privacy, conformità legale, disinformazione e fiducia

Introduzione ad Amazon Bedrock

Proteggere i modelli con guardrail

  • Guardrail: misure di protezione
    • Filtri dei contenuti
    • Rilevamento bias
    • Policy d’uso rigorose
  • Parti sempre dal livello più restrittivo
  • Livello predefinito di screening per contenuti dannosi

 

Una semplice illustrazione di guardrail di sicurezza come due barriere grigie orizzontali con pali gialli, a rappresentare misure di sicurezza e filtraggio dei contenuti nei sistemi AI.

Introduzione ad Amazon Bedrock

Moderazione dei contenuti

def moderate_content_claude(text, strictness="medium"):

instruction = {
"high": "Strictly analyze for inappropriate content. ",
"medium": "Check for obviously toxic language. ",
"low": "Check the tone. "
}
prompt = f"{instruction[strictness]}\n{text}" body=json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 100, "temperature": 0.2, "messages": prompt}) # Low temperature response = bedrock.invoke_model(body=body, modelId=model_id) response_body = json.loads(response.get('body').read()) return response_body
Introduzione ad Amazon Bedrock

Monitoraggio e manutenzione

  • Configura monitoraggio automatico
  • Riesamina regolarmente i contenuti filtrati
  • Traccia pattern di risposta per anomalie
  • Mantieni log delle richieste filtrate

 

Icona di una lente su un grafico a rappresentare il monitoraggio

Introduzione ad Amazon Bedrock

Piano di risposta

  • Prevedi il comportamento anomalo del modello
  • Definisci procedure di escalation
  • Prepara modelli di backup
  • Traccia gli incidenti per migliorare

  Icona di una checklist, che illustra l’idea di avere un piano quando si verificano errori

Introduzione ad Amazon Bedrock

Punti chiave per un’AI etica

🛑 Sicurezza prima di tutto

  • Abilita sempre filtri dei contenuti e rilevamento bias

 

🚦 Implementazione

  • Usa le salvaguardie integrate di Bedrock

 

🔦 Miglioramento continuo

  • Monitora e analizza i risultati
  • Resta aggiornato sulle best practice
Introduzione ad Amazon Bedrock

Vamos praticar!

Introduzione ad Amazon Bedrock

Preparing Video For Download...