‘Ik weet het niet’, zegt het betrouwbare algoritme
Oratie hoogleraar Pınar Yolum
AI-systemen moeten verantwoord, transparant, eerlijk, uitlegbaar en ethisch zijn, vindt men. Maar volgens hoogleraar Pınar Yolum is dat niet realistisch. In plaats daarvan pleit zij voor betrouwbare AI: systemen die laten zien dat ze bepaalde eigenschappen bezitten waardoor mensen kunnen vertrouwen op hun resultaten. Bijvoorbeeld door soms te antwoorden: “Ik weet het niet.” Yolum hield op 2 juli haar inaugurele rede.
AI is doorgedrongen tot elk aspect van ons leven. Dat levert mooie dingen op, zoals het verbeteren van de zorg, het vergemakkelijken van ingewikkelde reken- of planningstaken of het terugdringen van energieverbruik en voedselverspilling. Maar daar zit ook een keerzijde aan: AI kan vooroordelen vertonen tegenover bepaalde groepen of worden ingezet voor verkeerde doeleinden, zoals oorlogsvoering en de verspreiding van desinformatie.
Waar gaat het fout? Volgens Pınar Yolum, de kersverse hoogleraar Trustworthy AI bij het departement Informatica, ligt dat vooral aan de AI-technieken die we ontwikkelen. In haar inaugurele rede, op dinsdag 2 juli, betoogde ze dat de systemen die we nu bouwen weliswaar kunnen lijken op hoe mensen redeneren en argumenteren, maar dat ze niet de menselijke manier van werken kopiëren. Yolum: “AI-systemen kunnen veel sneller complexe berekeningen uitvoeren dan mensen. Maar ze hebben geen ingebouwd gevoel voor context, ethiek en nuance. Dat betekent dat AI fouten kan maken die mensen door hun bredere begrip van situaties waarschijnlijk zouden vermijden.”
Gouden eigenschappen
Als reactie daarop zeggen veel mensen dat we AI moeten ontwikkelen die verantwoord, transparant, eerlijk, uitlegbaar en ethisch is. Volgens Yolum is dat niet realistisch: “Om de een of andere reden accepteren we instituties die niet transparant zijn, mensen die niet ethisch handelen, een wereld die niet eerlijk is. Maar als het aankomt op AI, dan moeten de systemen al die ‘gouden’ eigenschappen wél bezitten. Dat is een onhaalbare standaard.”
In plaats daarvan pleit Yolum voor betrouwbare AI. “Net zoals mensen laten zien dat ze betrouwbaar zijn, bijvoorbeeld door bepaald gedrag te laten zien, bepaalde dingen te doen of juist níet te doen, zou een AI-systeem ook op die manier moeten handelen.” Dat kan volgens Yolum door AI meer antwoordopties te geven, zoals “Ik weet het niet”. “Een zin waarvan ik zou willen dat mannen hem ook wat vaker zouden zeggen,” grapt Yolum. “De huidige AI-systemen zijn gebouwd om een antwoord te geven. Als er geen duidelijk antwoord is, dan kiest het systeem vrij arbitrair, waardoor de kans groter is dat-ie een fout antwoord geeft en dus onbetrouwbaarder wordt. Als AI-systemen beter hun expertise of beperkingen kennen, zijn ze in staat om bepaalde opdrachten terug te geven aan de gebruiker.”
We accepteren instituties die niet transparant zijn en een wereld die niet eerlijk is. Maar AI-systemen moeten al die ‘gouden’ eigenschappen wél bezitten?
Zo ontwikkelde Yolum in haar groep een AI-app die je als een persoonlijke privacy assistent op je telefoon of op je computer kan zetten. “Dit systeem leert de voorkeuren van de gebruiker kennen ten aanzien van hun privacy en kan vervolgens aanbevelingen doen om bijvoorbeeld bepaalde foto’s of locaties niet te delen. Het algoritme kan vervolgens ook uitleggen, zowel in tekst als in beeld, waarom de gebruiker de bepaalde foto privé zou willen houden.” De onderzoekers merkten dat wanneer het systeem bij bepaalde foto’s kon zeggen: “Ik weet het niet” en de keuze overliet aan de gebruiker zelf, dat de andere voorspellingen accurater werden, en dus betrouwbaarder.
Yolum ziet de toekomstige AI als een betrouwbare werknemer aan wie je een taak uitbesteed omdat hij of zij heeft laten zien integer en behulpzaam te zijn. “We zitten nu in een situatie waarbij we AI opdrachten laten uitvoeren die we vervolgens door mensen laten controleren omdat er fouten gemaakt worden. Ik denk dat we naar een AI-systeem moeten dat we met een gerust hart opdrachten kunnen laten uitvoeren omdat we weten dat het systeem zegt: “Ik weet het niet” als er onduidelijkheden zijn. Dan werk je echt samen met AI in een team, omdat iedereen doet waar-ie het beste in is.”
Volgens Yolum is het een politieke keuze om AI op deze manier verder te ontwikkelen. “Informatica is een vakgebied waar de meeste financiering vanuit de industrie komt. En aan het einde van het liedje zegt de industrie: ‘Leuk dat je de mensen helpt om hun privacy beter te beschermen, maar wat heb ik daar aan? Ik wil data verzamelen.’ Ik hoop daarom dat er in de toekomst meer publiek geld komt voor dit type onderzoek.”
Vijf antwoordopties voor betrouwbare AI
Volgens Yolum zijn er vijf antwoordopties die betrouwbare AI zou moeten kunnen geven:
- Ik weet het niet
“AI is momenteel niet in staat om na te denken over zijn eigen kennis. Het kan niet beoordelen of het misschien een fout maakt. Maar nauwkeurig reflecteren op hoeveel we ergens van weten, laat bekwaamheid zien en verhoogt de betrouwbaarheid.”
- Dit is waarom
“Er is al AI die kan uitleggen hoe het tot een bepaalde beslissing is gekomen, maar niet de achtergrond van die beslissing. AI kan ook niet beoordelen of een uitleg nuttig is voor de gebruiker. Nieuwe AI-systemen zouden dit intuïtiever moeten kunnen doen. Dit laat de bereidheid zien om samen te werken en verbetert de betrouwbaarheid.”
- Ik heb het onder controle
“Het AI-systeem heeft niet alleen de expertise om een vraag te beantwoorden, maar ook de autonomie om te beslissen welke factoren belangrijk zijn en welke niet. Het controversiële aspect hiervan is dat de AI een actie kan uitvoeren die niet expliciet was gevraagd. Deze autonomie op verantwoorde wijze gebruiken verhoogt de betrouwbaarheid.”
- Oké, dat is redelijk
“In plaats van altijd te streven naar eigen nut en voordeel, zou een AI-systeem in staat moeten zijn om de keuzes van anderen te begrijpen en te respecteren en te zeggen 'Oké, dat is redelijk'. Het hebben en tonen van dergelijke empathie verhoogt de betrouwbaarheid.”
- Met alle respect
“Het AI-systeem kan beoordelen of de taak die het krijgt schadelijk kan zijn voor anderen of ongepast is in een bepaalde situatie, en vervolgens besluiten de taak niet uit te voeren. Als je weet dat het AI-systeem deze integriteit heeft, verhoogt dat de betrouwbaarheid.”