Autorégulation

Pratiques responsables en matière d'IA

Esther Montoya van Egerschot

Chief AI Governance @ DigiDiplomacy

Catégories d’autorégulation de l’IA

Une autorégulation efficace :

  • Des critères clairs
  • Une large participation du secteur
  • Une supervision proactive
  • Une application rigoureuse
  • Mécanismes de résolution des litiges
  • Transparence
  • Adaptabilité aux besoins du marché et des consommateurs
  • Indépendance

 

En action :

  • Codes de conduite
  • Lignes directrices et principes éthiques
  • Auto-évaluation et rapports
  • Dialogue avec parties prenantes
  • Partenariats sectoriels
  • Innovation dans les modèles de gouvernance
  • Conseils consultatifs d’éthique de l’IA
Pratiques responsables en matière d'IA

Normes ESG dans l'IA

L'intégration des normes environnementales, sociales et de gouvernance (ESG) dans les pratiques d'intelligence artificielle gagne du terrain.

 

Exemples :

  • Normes ESG de BCorp
  • Directive sur la publication d’informations en matière de durabilité par les entreprises (CSRD)

Les 17 objectifs de développement durable publiés par l’ONU

Pratiques responsables en matière d'IA

Tendances et opportunités dans l’autorégulation

 

  • Apprendre les uns des autres
  • Développement éthique
  • Codes et étiquettes
  • Renforcer les relations avec les parties prenantes
  • Renforcer la supervision humaine
  • Outil de réputation

 

L’autorégulation est un processus continu.

 

Image d’une flèche colorée pointant vers le haut

1 DALL E
Pratiques responsables en matière d'IA

Passons à la pratique !

Pratiques responsables en matière d'IA

Preparing Video For Download...