AI veilig houden: verantwoordelijkheid
AI-ethiek
Joe Franklin
Associate Data Literacy and Essentials Manager, DataCamp
Definieer verantwoordelijkheid
Verantwoordelijkheid:
Verantwoordelijkheid voor AI-resultaten toewijzen.
Essentieel voor de ontwikkeling, implementatie en het gebruik van AI.
AI is geen 'toverstaf' waarmee je je verantwoordelijkheid kunt ontlopen.
Verantwoordelijkheid is essentieel
Mensen hebben meer
vertrouwen
in AI-systemen als er verantwoording wordt afgelegd.
Verantwoordelijkheid zorgt voor ethisch gebruik en beperkt mogelijke schade.
Verantwoordelijkheid betekent niet dat mensen geen verplichtingen hebben.
De paradox van verantwoordelijkheid
AI verantwoordelijker maken, kan het vertrouwen vergroten;
Maar te veel vertrouwen in AI kan leiden tot verkeerde beslissingen.
Voorbeeld:
Onderzoek van Georgia Tech waarbij mensen de verkeerde aanwijzingen van een robot volgden.
Het verhaal van Tesla
Misverstand onder consumenten over de mogelijkheden van de automatische piloot.
Kritiek op Tesla vanwege onvoldoende veiligheidsmaatregelen.
Zowel Tesla als de consument is verantwoordelijk.
Verantwoordelijkheid nemen
AI-producenten:
Verantwoordelijkheid nemen, betekent transparant zijn en het 'Black Box'-probleem oplossen.
Verantwoordelijkheid toewijzen is essentieel.
AI-gebruikers:
'Vertrouwen maar verifiëren'
Zowel producenten als consumenten spelen een rol bij het creëren van ethische AI.
Uitdagingen zijn kansen voor innovatie.
1
Pictogrammen gemaakt door Eucalyp & Sumitsaengtong van www.flaticon.com
Geen standaardoplossing
Verantwoordelijkheid in AI is een
continu proces
.
Met elke nieuwe AI-ontwikkeling verandert ook het
gesprek over verantwoordelijkheid
.
Er is geen standaardaanpak, het verschilt per branche.
1
Pictogram gemaakt door Freepik van www.flaticon.com
Laten we oefenen!
AI-ethiek
Preparing Video For Download...