Sauvegarde de l'IA : Responsabilité
Éthique de l'IA
Joe Franklin
Associate Data Literacy and Essentials Manager, DataCamp
Définir la responsabilité
Responsabilité :
Attribution de la responsabilité des résultats de l'IA
Essentiel au développement, au déploiement et à l'utilisation de l'IA
L'IA n'est pas une « baguette magique » permettant d'échapper à ses responsabilités
La responsabilité est essentielle
Les individus font davantage
confiance
aux systèmes d'IA lorsqu'il y a une responsabilité
La responsabilité garantit une utilisation éthique et atténue les risques potentiels
La responsabilité implique de ne pas exempter les individus de leurs obligations
Le paradoxe de la responsabilité
Renforcer la responsabilité de l'IA peut améliorer la confiance
Cependant, une confiance excessive dans l'IA peut conduire à des décisions inappropriées
Exemple :
Étude de Georgia Tech dans laquelle les participants ont suivi les instructions d'un robot malavisé
L'histoire de Tesla
Incompréhension des capacités du pilote automatique parmi les consommateurs
Critiques à l'égard des mesures de sécurité insuffisantes de Tesla
Tesla et les consommateurs partagent la responsabilité
Assurer la responsabilité
Producteurs d'IA :
La responsabilisation implique transparence et résolution du problème de la « boîte noire »
Il est essentiel d'attribuer les responsabilités
Consommateurs d'IA :
« La confiance n’exclut pas le contrôle »
Les producteurs et les consommateurs jouent un rôle dans la création d'une IA éthique
Les défis constituent des opportunités d'innovation
1
Icônes créées par Eucalyp & Sumitsaengtong à partir de www.flaticon.com
Il n'existe pas de réponse unique
La responsabilité en matière d'IA est un
processus continu
À chaque avancée de l'IA, le débat sur la
responsabilité
évolue
Il n'existe pas d'approche universelle ; elle varie selon les secteurs d'activité
1
Icône réalisée par Freepik, www.flaticon.com
Passons à la pratique !
Éthique de l'IA
Preparing Video For Download...