Segurança da IA: Responsabilização
Ética em IA
Joe Franklin
Associate Data Literacy and Essentials Manager, DataCamp
Definir responsabilização
Responsabilização:
Atribuir responsabilidade por resultados da IA
Fundamental no desenvolvimento, implantação e uso da IA
IA não é uma “mágica” para evitar responsabilidade
Responsabilização é essencial
Pessoas
confiam
mais em sistemas de IA quando há responsabilidade
A responsabilização garante o uso ético e reduz possíveis danos
Responsabilização significa não isentar humanos de responsabilidade
O paradoxo da responsabilidade
Aumentar a responsabilidade da IA pode melhorar a confiança
Mas confiar demais na IA pode levar a decisões erradas
Exemplo:
Estudo da Georgia Tech em que participantes seguiram orientações erradas de um robô
A história da Tesla
Equívoco sobre capacidades do piloto automático entre consumidores
Crítica à segurança insuficiente da Tesla
Tanto Tesla quanto consumidores são responsáveis
Alcançar responsabilização
Produtores de IA:
Alcançar responsabilização envolve transparência e resolver problema da “caixa preta”
Atribuir responsabilidade é fundamental
Consumidores de IA:
“Confie, mas verifique”
Produtores e consumidores têm papel importante em criar IA ética
Desafios são oportunidades para inovar
1
Ícones de Eucalyp e Sumitsaengtong a partir de www.flaticon.com
Não existe solução única
Responsabilização em IA é uma
jornada contínua
A cada avanço da IA, a conversa sobre
responsabilização
evolui
Não existe abordagem única; varia de acordo com o setor
1
Ícone de Freepik a partir de www.flaticon.com
Vamos praticar!
Ética em IA
Preparing Video For Download...