Aanvullende tools voor RAI

Verantwoorde AI-praktijken

Esther Montoya van Egerschot

Chief AI Governance @ DigiDiplomacy

Risico- vs. impactbeoordelingen

 

RISICO

  • Voorzie mogelijke problemen
  • Negatieve impact

 

IMPACT

  • Voorzie kansen en risico
  • Positieve en negatieve impact
Verantwoorde AI-praktijken

Risicobeoordelingen helpen:

  • schadelijke impact te voorzien
  • en die proactief te beperken

 

Voorbeelden:

  • NIST Artificial Intelligence Risk Management Framework (AI RMF) plus AI RMF Playbook
  • Local Law 144 van New York City
  • De Franse CNIL
  • OECD AI Risk Evaluation Framework

Een universele aanpak voor AI-risicobeoordelingen ontbreekt nog.

Verantwoorde AI-praktijken

AI-impactbeoordelingen helpen organisaties:

  • De bredere effecten identificeren
  • Af te stemmen op mensgerichte waarden
  • Vertrouwen en transparantie te bevorderen

Voorbeelden:

  • De Nederlandse AI Impact Assessment (AIIA)
  • Microsoft's Responsible AI Impact Assessment Standard
  • IBM® watsonx
  • Human Rights Impact Assessment (HRIA)
  • Responsible AI Institute RAISE Benchmarks
Verantwoorde AI-praktijken

Veelvoorkomende valkuilen

  • Ethische blind spots: impliciete bias
  • Bluewashing of ethics washing: doen alsof
  • AI-shopping: business boven ethiek
  • Shadow AI: geen expliciete goedkeuring of toezicht

AI-impactbeoordelingen naast risicobeoordelingen:

  • zorgen voor een complete evaluatie van AI-systemen
  • voorkomen schade en dragen actief bij aan maatschappelijk nut

Een oog op een donkere achtergrond als blind spot

1 DALL·E
Verantwoorde AI-praktijken

Laten we oefenen!

Verantwoorde AI-praktijken

Preparing Video For Download...