Het nut van uitlegbare AI

03 Jun 2024



Data-wetenschapper Meike Nauta gaf op 23 mei een talk over Uitlegbare AI. Ze legde uit wat AI is, waar het voor wordt gebruikt en waarom het belangrijk is dat we de AI modellen blijven begrijpen.

AI is de verzamelnaam voor de modellen die gebruikt worden om grote hoeveelheden data te verwerken, verbanden te zoeken en hier voorspellingen op los te laten. Zo kan het voorspellingen doen over van welke muziek je houdt, welke mails waarschijnlijk spam zijn en bijvoorbeeld teksten en afbeeldingen genereren.

Er zijn verschillende AI modellen. Zo zijn er modellen waarbij je handmatig bepaalde categorieën of kenmerken hebt aangegeven (machine learning). Maar er zijn ook modellen waarbij je niet zegt waar je naar op zoek bent, maar het zelfstandig op zoek gaat naar verbanden aan de hand van een zeer complex netwerk van kunstmatige neurale netwerken (deep learning).

De technologie biedt veel kansen. Het heeft veel meer rekenkracht, snelheid en geheugen dan een mens. Maar het is en blijft een machine. Het heeft geen intuitie, moreel kompas, gevoel en is niet creatief. We kunnen er dus goed mee samenwerken, maar we moeten het niet zien als iets dat de mens vervangt. Daarnaast worden de modellen gemaakt, getraind en gevoed door mensen en beschikbare of geselecteerde datasets. En dat betekent dat er eigenlijk in alle onderdelen bias (vooringenomenheid) in terecht kan komen. Immers de computer engineer bouwt het programma vanuit zijn kennis en waarden. En de datasets komen bijvoorbeeld uit een bepaald werelddeel of uit een bepaalde tijd. Deze bias kan grote risico's hebben.

“Om erachter te komen welke ongewenste redeneringen AI erop nahoudt moet je die zwarte doos openen die AI is, want alleen dan kun je zien wat het nu eigenlijk leert,” aldus Nauta. Hiermee kun je bias niet alleen ontdekken maar ook corrigeren. Omdat de systemen steeds meer kunnen wordt de vraag naar AI systemen groter en groter. Het is wellicht niet meer de vraag of AI wordt gebruikt, maar vooral hoe. Het inbouwen van uitlegbaarheid en menselijkheid is daarom cruciaal. Want ons vertrouwen hierin gaat hand in hand met de betrouwbaarheid ervan.

Na de lezing hebben we onder leiding van Chris Dorna zelf een model getraind middels machine learning. We brachten in het programma ‘the teachable machine’ eerst zelf categorieën aan. Daarna trainden we de machine met meerdere afbeeldingen hiervan en maakten zo een eigen AI model wat getraind was om te voorspellen in welke categorie iets viel. Met nieuwe beelden toetsten we de machine op zijn accuraatheid.

Het zelf getrainde model gebruikten we vervolgens in de simpele programmeertaal Scratch. Middels het principe “Als dit, dan dat”, werd een bepaalde voorspelling aan een bepaalde actie verbonden. Hiermee werd inzichtelijk hoe een machine leert en hoe je dit vervolgens kunt gebruiken. Denk bijvoorbeeld aan je spambox, maar ook aan praktische zaken: bijvoorbeeld een AI systeem dat roest aan een brug detecteert, waarna er een melding wordt verstuurd naar de gemeente.

Men vond het super leerzaam. Avonden als deze gaan we vaker doen!