“Uiteindelijk gaat Artificial Intelligence over de wens van de mens om zichzelf te begrijpen”

Oratie van AI-expert Jan Broersen over de verantwoordelijkheid van machines

Prof. dr. ir. Jan Broersen. Foto: Ed van Rijswijk
Prof. dr. ir. Jan Broersen. Foto: Ed van Rijswijk

Op steeds meer gebieden vertrouwen we als mensen op ‘slimme’ machines, maar hoe slim zijn die machines eigenlijk, en zijn ze net zo verantwoordelijk voor wat ze doen als mensen? Wie is er aansprakelijk – juridisch en moreel – als een security-algoritme van de politie racistisch blijkt, als een militaire killer robot een burgerdoel raakt, of als een AI-pacemaker een hartritmestoornis verkeerd corrigeert? Jan Broersen, hoogleraar Logische methoden in de kunstmatige intelligentie, spreekt in zijn oratie op 24 maart 2022 over de verantwoordelijkheid van machines. Hij pleit voor meer aandacht voor hoe wij mensen onze machines op een verantwoordelijke manier kunnen programmeren. Formele logica speelt volgens hem een cruciale rol om te zorgen dat beslissingen van systemen transparant zijn.

Broersen, die zelf een achtergrond in wiskunde, logica en informatica heeft, ziet dat een geesteswetenschappelijk perspectief op AI (artificial intelligence) steeds belangrijker wordt. “AI is heel lang het domein geweest van theoretici die nadachten over fundamentele technieken en theorieën. Maar door het voortschrijden van de digitalisering en de communicatietechnologie zijn veel technieken en theorieën nu toepasbaar geworden in de echte wereld om ons heen. Dat roept allemaal nieuwe vragen op van geesteswetenschappelijke en sociale aard.”

Veel technieken en theorieën zijn nu toepasbaar geworden in de echte wereld om ons heen. Dat roept allemaal nieuwe vragen op van geesteswetenschappelijke en sociale aard.

Sterke en zwakke AI

Wat we onder AI verstaan, en wat we ervan verwachten, hangt mede af van hoe we intelligentie definiëren. Broersen maakt onderscheid tussen ‘sterke’ en ‘zwakke’ AI, een onderscheid dat is geïntroduceerd door de Amerikaanse filosoof John Searle. Zwakke AI, dat op grote schaal wordt toegepast, werkt volgens een relatief simpel principe: je stopt iets in de machine en er komt iets uit. Voor die input en output kunnen ontelbaar veel mogelijkheden en combinaties denkbaar zijn, maar uiteindelijk bepaalt de mens die de machine programmeert welke mogelijkheden het precies zijn. Bij de huidige stand van techniek is dit de enige vorm van AI die we ter beschikking hebben, aldus Broersen, en daarom is in de huidige situatie niet de machine verantwoordelijk, maar altijd de mensen die erachter zitten.

Sterke AI gaat uit van een veel ruimer begrip van intelligentie: bij menselijke intelligentie spelen bijvoorbeeld ook emoties, creativiteit, moreel besef en zelfbewustzijn een rol. Kunnen we dat ook allemaal in een computer nabouwen? Broersen is er stellig over: met de huidige technieken kunnen we dat niet. “Ik denk dat het met andere technieken wel mogelijk kan worden. Maar dan moeten we met een nieuw concept van computing komen. Mogelijk is quantum computing dat nieuwe concept: quantumcomputers kunnen essentieel méér dan de huidige computers, maar we begrijpen nog niet precies wat die essentie is. Bovendien moeten er geheel nieuwe theorieën over intelligentie komen die dan zouden aansluiten bij die nieuwe manieren van computing. Het is nog moeilijk voor te stellen hoe we stappen in deze richting kunnen zetten: het onderzoeksveld van sterke AI ligt nog helemaal open.”

Een belangrijke vraag is ook of we ‘sterke’ AI, machines die de menselijke geest evenaren, wel moeten willen. Broersen: “Of het wenselijk is weet ik niet, maar ik ben ervan overtuigd dat we het zullen willen. Uiteindelijk gaat AI over de wens van de mens om zichzelf te begrijpen.”

Invloedrijke AI

Al berust de huidige AI-techniek dan op een relatief simpel input-output-principe, toch heeft ‘zwakke’ AI een ongekende impact op ons leven. Dat heeft ook keerzijden. “Doemdenkers schetsen angstbeelden van robots die de wereld overnemen, maar daar hoeven we voorlopig echt niet bang voor te zijn zolang sterke AI niet bestaat. Maar door dit soort beweringen raken andere, veel reëlere gevaren van onze huidige zwakke AI ondergesneeuwd,” stelt Broersen. Dat is bijvoorbeeld het gevaar van bias: algoritmes die een bepaalde vooringenomenheid bevatten en deze zelfs versterken. Ook wijst Broersen op het gevaar van de macht die grote techbedrijven als Facebook en Google hebben: “Zelfs als bedrijven de beste bedoelingen hebben, kan hun macht in verkeerde handen vallen – dat hebben we bijvoorbeeld gezien toen de Amerikaanse presidentsverkiezingen in 2016 door Rusland gemanipuleerd bleken. Macht hoort onder democratische controle te staan en dat is niet het geval wanneer die in handen is van bedrijven die hun algoritmes niet prijsgeven.”

Truth in = truth out

Machines zijn volgens Broersen dus niet zelf verantwoordelijk, maar wij moeten ervoor zorgen dat we ze zo goed mogelijk onze (menselijke) verantwoordelijkheid laten dragen. Daarvoor moeten we ze zodanig programmeren dat we kunnen controleren en begrijpen wat ze doen. Een techniek die we daarbij nodig hebben is die van de formele logica, betoogt Broersen.

Een eerste manier waarop we nu al verantwoordelijkheid in systemen vormgeven is door te zorgen voor programmeercode die logisch correct werkt. Traditioneel richt logica zich op manieren van redeneren en bewijzen die consistent zijn in hun waarheidsgehalte: als je er iets instopt wat waar is, moet je erop kunnen rekenen dat de uitkomst ook waar is, oftewel ‘truth in = truth out’. Of de input waar is, daar gaat logica niet over. Het gaat om de manieren van redeneren, en die worden al op grote schaal in programmeercode toegepast.

Het mooie van deontische logica (de logica van wat moet en wat mag) is dat je daarmee in logische regels expliciet kunt maken hoe je morele principes ten opzichte van elkaar weegt.

Good in = good out

Maar hoe zorgen we er nu voor dat een programma het moreel juiste berekent, oftewel ‘good in = good out’? Net als voor het ‘ware’ zullen wij mensen moeten bepalen wat het ‘goede’ is. Hoe kunnen we computers daar vervolgens mee laten redeneren? Over die vraag buigen wetenschappers zich sinds de jaren 90 in het kleine vakgebied van de zogenoemde deontische logica, de logica van wat moet en wat mag. Broersen: “Deontische logica omvat nu vooral fundamenteel onderzoek en kent nog weinig concrete toepassingen. Maar bijvoorbeeld systemen die niet mogen discrimineren, zoals bij de belastingdienst of bij sollicitatieprocedures, zouden veel baat hebben bij deontische logica. Er wordt nu vaak gebruik gemaakt van deep learning-technieken die werken met neurale netwerken. De output kun je dan wel statistisch rechtvaardigen, maar over interpretaties van statistiek valt altijd te twisten. Het mooie van deontische logica is dat je daarmee in logische regels expliciet kunt maken hoe je morele principes ten opzichte van elkaar weegt: bijvoorbeeld hoe je de relatieve weging doet van conflicterende redenen om al dan niet iemands  leeftijd, herkomst of andere persoonskenmerken mee te nemen in een beslissing. En als je het expliciet maakt, kun je er ook invloed op uitoefenen en de regels aanpassen als dat nodig is.”

Fake news

Donald Trump © iStockphoto.com/Bastiaan Slabbers
Donald Trump © iStockphoto.com/Bastiaan Slabbers

Als logicus kijkt Broersen met een mengeling van zorg, verbijstering en fascinatie naar de opmars in de afgelopen jaren van nepnieuws. Hij onderscheidt daarbij twee vormen: “Je ziet dat aanhangers van complottheorieën vaak wel degelijk de gangbare regels van de logica volgen, bijvoorbeeld de flat earthers die beredeneren waarom de aarde plat zou zijn. Zij hebben een extreem sterke confirmation bias: ze beginnen eigenlijk bij de uitkomst en redeneren daar naartoe. Maar misschien nog wel gevaarlijker is het als de logica zelf overboord wordt gegooid, zoals we bijvoorbeeld president Trump hebben zien doen. Als het je meer om macht dan om waarheid te doen is, kun je inconsistentie inzetten – en dus zondigen tegen de logica – om mensen opzettelijk in verwarring te brengen.”

Goede voornemens

Klant pakt sinaasappel in de supermarkt © iStockphoto.com/Vera_Petrunina
© iStockphoto.com/Vera_Petrunina

Broersens huidige onderzoeksproject gaat over de vraag hoe kunstmatige intelligentie mensen kan helpen om goede voornemens – stoppen met roken, gezonder eten, vroeger naar bed – vol te houden. Dit lijkt een heel ander onderwerp dan zijn onderzoek naar ‘verantwoordelijke AI’, maar hij legt uit dat er wel degelijk verwantschap tussen zijn projecten is. “In beide gevallen gaat het over het filosofische begrip ‘agency’, oftewel handelingsvermogen. Het onderzoek naar verantwoordelijkheid van machines gaat over ‘artificial’ agency en in hoeverre die vorm van agency verantwoordelijk kan zijn – zoals ik in mijn project en ook in mijn oratie betoog kan dat volgens mij dus alleen in afgeleide zin: de mens is uiteindelijk de verantwoordelijke ‘agent’ op de achtergrond. Het project over goede voornemens gaat over hoe je ‘echte’ agency (van de mens) kunt versterken met kunstmatige agency (van computers). Wij mensen hebben immers nog wel eens een gebrek aan wilskracht, we zwichten bijvoorbeeld voor verleidingen, en daar hebben computers geen last van.”

Prof. dr. ir. Jan Broersen is hoogleraar Logische methoden in de kunstmatige intelligentie aan de faculteit Geesteswetenschappen. Van 2014 tot 2019 leidde hij het project ‘Responsible Intelligent Systems’, waarvoor hij een ERC Consolidator Grant ontving van de European Research Council. Zijn huidige project ‘Empowering Human Intentions through Artificial Intelligence’ (2021-2024) onderzoekt hoe kunstmatige intelligentie mensen kan helpen om goede voornemens vol te houden. Dit project wordt gesubsidieerd vanuit het NWO-programma Open Competitie voor Digitaliseringsonderzoek SGW. Broersen studeerde wiskunde aan de TU Delft en promoveerde aan de VU in Amsterdam op het gebruik van deontische logica in de informatica. Aan de Universiteit Utrecht is hij medevoorzitter van het interdisciplinaire focusgebied Human-centered Artificial Intelligence, dat het Utrechtse onderzoek naar AI bundelt. Zijn oratie vindt plaats op 24 maart 2022.