Outils supplémentaires pour l’IA responsable

Pratiques responsables en matière d'IA

Esther Montoya van Egerschot

Chief AI Governance @ DigiDiplomacy

Évaluation des risques ou évaluation de l’impact

 

RISQUE

  • Prévoir les problèmes potentiels
  • Impact négatif

 

IMPACT

  • Prévoir le potentiel et les risques
  • Impact positif et négatif
Pratiques responsables en matière d'IA

L’évaluation des risques permet :

  • d’anticiper les effets néfastes
  • de les atténuer de manière proactive

 

Exemples :

  • Cadre de gestion des risques liés à l'intelligence artificielle du NIST (AI RMF) et son manuel d’utilisation
  • Loi locale 144 de la ville de New York
  • La CNIL française
  • Cadre d'évaluation des risques liés à l'IA de l'OCDE

L’approche de l’évaluation des risques liés à l’IA n’est pas universelle.

Pratiques responsables en matière d'IA

Les évaluations de l'impact de l’IA aident les organisations à :

  • Identifier les effets plus larges
  • Assurer l’alignement avec les valeurs humaines
  • Favoriser la confiance et la transparence

Exemples :

  • L’évaluation néerlandaise de l’impact de l’IA (AIIA)
  • La norme d’évaluation de l’impact de l’IA responsable de Microsoft
  • IBM® watsonx
  • Évaluation de l'impact sur les droits de l'homme (EIDH)
  • Les benchmarks RAISE de l’Institut pour l’IA responsable
Pratiques responsables en matière d'IA

Pièges courants

  • Angles morts éthiques : biais implicites
  • Blanchiment éthique : faire semblant
  • Commerce de l’IA : profit avant éthique
  • L’IA fantôme : sans approbation ni contrôle

Intégrer les évaluations de l’impact de l’IA avec les évaluations des risques :

  • garantit l’évaluation des systèmes IA
  • évite de causer du tort et contribue activement au bien sociétal

Image d’un œil dans un fond sombre comme angle mort

1 DALL E
Pratiques responsables en matière d'IA

Passons à la pratique !

Pratiques responsables en matière d'IA

Preparing Video For Download...