Modelrisico’s

AI-beveiliging en risicobeheer

Angeline Corvaglia

Founder and Digital Transformation Expert

Risico’s monitoren over de levenscyclus

weergave van AI-levenscyclus

Tijdens ontwikkeling

  • Eerlijke en nauwkeurige data
  • Leert effectief
  • Risico’s van uitrollen van een gebrekkig systeem

stip

Na uitrol

  • Modellen kunnen veranderen (driften) in de tijd
  • Leidt tot gekleurde of onnauwkeurige outputs
AI-beveiliging en risicobeheer

Zeven veelvoorkomende modelrisico’s

  schaakbord dat modelrisico’s voorstelt

 

  • Gebrek aan modeltransparantie en -interpreteerbaarheid
  • Bias
  • Hallucinatie
  • Modeldrift
  • Overfitting
  • Underfitting
  • Dataleakage
AI-beveiliging en risicobeheer

  afbeelding die transparantie voorstelt

 

Transparantie

  • Hoe AI-modellen beslissingen nemen

Interpreteerbaarheid

  • Waarom een model bepaalde outputs geeft

uitroepteken

In gevoelige domeinen zoals zorg of financiën

  • Beslissingsproces
  • Even belangrijk als de beslissing zelf
AI-beveiliging en risicobeheer

Bias

Oneerlijke voorkeuren of vooroordelen

  • Gekleurde trainingsdata
  • Algoritmen
  • Niet-representatieve of gebrekkige data
  • Menselijke aannames

Opsporen en beperken voor eerlijke en ethische AI-systemen

AI-vooroordeel

AI-beveiliging en risicobeheer

Hallucinatie

pictogram dat hallucinatie voorstelt

Ontstaan door o.a.:

  • Onvoldoende trainingsdata
  • Onjuiste aannames
  • Biases in de data
AI-beveiliging en risicobeheer

Modeldrift

Voorheen accuraat

  • Verliezen hun relevantie
  • Nauwkeurigheid

Model raakt in de war door:

  • Andere data
  • Andere patronen in de data

weergave van modeldrift

AI-beveiliging en risicobeheer

Effectief en nauwkeurig leren

weergave van leren

Overfitting

  • Leert te veel details

gloeilamp

Underfitting

  • Te simpel om te leren

gloeilamp

Dataleakage

  • Externe data opgenomen in training
AI-beveiliging en risicobeheer

Explainable AI (XAI)

 

  • Methoden en technieken
  • Beslissingen begrijpelijk voor mensen
  • Uitleg van de redenatie achter modeloutput

weergave van uitlegbare AI

AI-beveiliging en risicobeheer

Robustere, eerlijke en veilige AI-systemen

 

  • Beveiligingsmaatregelen
  • Verantwoord ontwikkelen
  • Lange-termijneffect

pijl

Moet voor iedereen voordelig zijn

  weergave van robuuste, eerlijke & veilige AI

AI-beveiliging en risicobeheer

Laten we oefenen!

AI-beveiliging en risicobeheer

Preparing Video For Download...