Weitere Tools für RAI

Verantwortungsvolle KI-Praktiken

Esther Montoya van Egerschot

Chief AI Governance @ DigiDiplomacy

Risikobewertungen und Folgenabschätzungen

 

RISIKOBEWERTUNG

  • Potenzielle Probleme vorhersehen
  • Negative Auswirkungen

 

FOLGENABSCHÄTZUNG

  • Potenziale und Risiken vorhersehen
  • Positive und negative Auswirkungen
Verantwortungsvolle KI-Praktiken

Risikobewertungen helfen:

  • schädliche Auswirkungen vorherzusehen,
  • um sie proaktiv abzuschwächen.

 

Beispiele:

  • NIST – Artificial Intelligence Risk Management Framework (AI RMF) und AI RMF Playbook
  • Local Law 144 in New York City
  • Frankreichs CNIL
  • OECD-Rahmenwerk zur Bewertung von KI-Risiken

Ein universeller Ansatz zur Bewertung von KI-Risiken fehlt noch.

Verantwortungsvolle KI-Praktiken

KI-Folgenabschätzungen helfen Organisationen:

  • die weiterreichenden Auswirkungen zu ermitteln
  • sicherzustellen, dass der Mensch im Mittelpunkt steht
  • Vertrauen und Transparenz zu fördern

Beispiele:

  • Die niederländische KI-Folgenabschätzung (AIIA)
  • Microsofts Standard zur Folgenabschätzungen von verantwortungsvoller KI
  • IBM® watsonx
  • Menschenrechtliche Folgenabschätzung (HRIA)
  • RAISE Benchmarks des Responsible AI Institute
Verantwortungsvolle KI-Praktiken

Häufige Stolperfallen

  • Ethische blinde Flecken: implizite Vorurteile
  • Bluewashing / Ethics Washing: so tun als ob
  • KI-Shopping: Business statt Ethik
  • Schatten-KI: keine ausdrückliche Genehmigung oder Aufsicht

Integration von KI-Folgenabschätzungen neben Risikobewertungen:

  • Sichert umfassende Bewertung
  • Vermeidet Schäden und trägt aktiv zum Wohl der Gesellschaft bei

Bild eines Auges vor einem dunklen Hintergrund als blinder Fleck

1 DALL-E
Verantwortungsvolle KI-Praktiken

Lass uns üben!

Verantwortungsvolle KI-Praktiken

Preparing Video For Download...