Subsidie voor ontwikkeling transparante algoritmen voor opsporing

Honderden verlichte ramen van een kantoorgebouw
Foto: stock.com/olaser

Opsporingsambtenaren kunnen het verwerken van grote hoeveelheden gegevens efficiënter doen door gebruik te maken van algoritmen. Maar hoe zorgen we ervoor dat de algoritmen niet bevooroordeeld zijn en het gevonden bewijs standhoudt in een rechtszaak? Dankzij een forse subsidie van NWO gaan informatici, juristen, sociale wetenschappers en opsporingsambtenaren samen onderzoeken hoe zij, in interactie met de technologie, betere beslissingen kunnen nemen.

We moeten het algoritme niet heilig verklaren, maar er ook niet vanuit gaan dat het per definitie discriminerend is, zegt Stephan Grimmelikhuijsen, naast Floris Bex een van de betrokken onderzoekers van de Universiteit Utrecht. De waarheid ligt in het midden en daar moet we naar op zoek. Transparantie en visualisaties kunnen daarbij helpen.’

NWO heeft subsidie toegekend aan het onderzoeksproject ‘AI4INTELLIGENCE: From multimodal data to trustworthy evidence in court’, waarvan de Universiteit van Amsterdam penvoerder is. Een interdisciplinair team onderzoekers van de departementen Bestuurs- en Organisatiewetenschap en Informatica van de Universiteit Utrecht werkt samen binnen het project, waarin zij zich vooral richten op het werk van opsporingsambtenaren.

Voordelen benutten en niet in valkuilen stappen


We moeten goed nadenken over het gebruik van algoritmen, zegt Stephan Grimmelikhuijsen. Hoe kun je zowel de voordelen ervan benutten als tegelijkertijd niet in de valkuilen van discriminatie en onbetrouwbaarheid stappen, of dat het niet aan geldende wet- en regelgeving voldoet. Er wordt vaak in negatieve zin gesproken over de inzet van algoritmen. Dat is terecht wanneer het bijvoorbeeld leidt tot etnisch profileren of andere vooroordelen die zo’n effect kunnen hebben als bijvoorbeeld de toeslagenaffaire.

Tegelijkertijd zie je ook dat het gebruik van algoritmen veel voordelen met zich mee kan brengen. Het kan het verwerken van grote hoeveelheden data veel efficiënter maken. Opsporingsambtenaren van de politie verzamelen veel (beeld)materiaal. Als je dat allemaal moet gaan doorspitten, kost dat heel veel tijd. Naast de omvang is ook de aard van die in beslag genomen beeld soms een behoorlijke belasting voor individuele opsporingsambtenaren, bijvoorbeeld in het geval van kinderpornografie. Een algoritme zou hen kunnen helpen al die data sneller te doorzoeken en aan kunnen geven wanneer iets wijst op strafbaar handelen.

Weten waar het algoritme zijn data vandaan haalt en waarom het in een bepaalde richting wijst

Maar: je kunt nog zo’n mooi algoritme ontwerpen, als het onbegrijpelijk is of het de agent de verkeerde kant op stuurt, dan heb je er niets aan, benadrukt Grimmelikhuijsen. Ons team van de Universiteit Utrecht gaat bijvoorbeeld testen wat een rechercheur precies doet, als die ermee werkt. Politieambtenaren moeten wel weten waar het algoritme zijn data vandaan haalt en waarom het in een bepaalde richting wijst. Dat is de noodzakelijke transparantie waar we naar op zoek zijn. Want uiteindelijk moet het in een rechtszaak voor rechters ook overtuigend zijn. Als het algoritme dan niet op de een of andere manier transparant is, kan de rechter de onderzoeksgegevens niet controleren en accepteren als bewijs. Het gaat dus niet alleen over wat er kan en wat het betekent, maar ook over wat er mag.

Want zoiets als het Chinese creditsysteem – waarin een algoritme burgers beoordeelt en hun mogelijkheden bepaalt – dat kan misschien heel goed werken, maar dat is niet iets wat wij hier willen. We willen efficiency, meer verdachten opsporen maar wel op een manier die aan onze rechtstatelijke waarborgen voldoet.

Het gaat dus niet alleen over wat er kan en wat het betekent, maar ook over wat er mag.

Stephan Grimmelikhuijsen
Stephan Grimmelikhuijsen

Hoe moeten we dat voor ons zien? Vanuit een database met tienduizenden filmpjes kan bijvoorbeeld komen: er zijn er honderd waar je beter naar moet kijken. Die selectie moet in ieder geval al goed zijn. Daar moet dan alsnog iemand ‘handmatig’ doorheen. Een ander voorbeeld is het analyseren van gegevens uit encrochat (encrypted chats). Het is voor een algoritme heel moeilijk om bijvoorbeeld ‘alternatieve’ uitdrukkingen voor zoiets als liquidaties te herkennen. Maar als je het zoeken daarnaar helemaal weglaat, komt een rechercheur het ook niet meer tegen. Als je informatie toevoegt over waar het algoritme onzeker over is, kan dat een signaal voor een opsporingsambtenaar zijn om daar juist extra op te letten. Daar kun je dus de mens weer inschakelen.

Informatici, juristen, sociale wetenschappers én opsporingsambtenaren samen aan het werk

Transparantie: begrijpen en uitleggen wat algoritmen wel en niet kunnen


Het mooie van dit onderzoeksproject is dat we er met een interdisciplinair team aan werken: informatici die er vanuit een technisch perspectief naar kijken (werkt het algoritme accuraat, hoe kunnen we het eventueel aanpassen), juristen (die kijken naar wet- en regelgeving, bewijslast in de rechtspraak), gedragsbestuurskundigen zoals ik, die kunnen onderzoeken hoe agenten ermee werken en natuurlijk de opsporingsambtenaren zelf. Als we denken: hier gaat iets mis, kunnen we het weer teruggeven aan de ontwerpers om het algoritme aan te laten passen.

Stephan Grimmelikhuijsen en Floris Bex zullen met opsporingsambtenaren samen kijken naar hun werkroutines. De bedoeling is om tot richtlijnen te komen die hun beslissingen, in de interactie met de technologie, zullen verbeteren.

We moeten het algoritme niet heilig verklaren, maar er ook niet vanuit gaan dat het per definitie discriminerend is. De waarheid ligt in het midden.

Stephan Grimmelikhuijsen

Transparantie kan helpen de werking van een algoritme beter in te schatten. Als je weet dat het niet perfect werkt, ga je misschien zelf nog beter nadenken. Het kan helpen om goede beslissingen te nemen, aldus Grimmelikhuijsen. We moeten het algoritme dus niet heilig verklaren, maar er ook niet vanuit gaan dat het per definitie discriminerend is. De waarheid ligt in het midden en daar moet we naar op zoek. Transparantie kan daarbij helpen.

Dat betekent overigens niet dat je alle gegevens over algoritmen zomaar met iedereen moet delen, schrijft Grimmelikhuijsen in zijn eerder al gepubliceerde artikel ‘Explaining Why the Computer Says No’, waarin met name het perspectief van burgers centraal staat. Zij hebben recht op toegankelijkheid en transparantie, het geeft hen meer vertrouwen. Tegelijkertijd: zij hebben net zomin verstand van alle technische ins- and outs als jij en ik. Het gaat er dus vooral om dat je de werking van een algoritme begrijpelijk kunt uitleggen. Bijvoorbeeld wanneer iemand een afwijzing heeft gekregen bij het aanvragen van een toeslag.

Meer informatie


Wilt u meer weten over dit onderzoeksproject? Neem dan contact op met Stephan Grimmelikhuijsen: s.g.grimmelikhuijsen@uu.nl