Promotie: Beyond Trust: A Causal Approach to Explainable AI in Law Enforcement

tot

LET OP: Als een kandidaat een lekenpraatje houdt, start de livestream een kwartier eerder.

Kunstmatige intelligentie speelt een groeiende rol binnen de politie, maar wat als een algoritme onbewust discrimineert? Promovendus Marcel Robeer ontwikkelde een softwaretool die politiemedewerkers helpt AI-systemen te controleren op eerlijkheid en uitlegbaarheid. Op 14 november verdedigt hij zijn proefschrift Beyond Trust: A Causal Approach to Explainable AI in Law Enforcement.

Robeer deed zijn onderzoek bij het Nationaal Politielab AI, waar hij zich richtte op uitlegbare AI (Explainable AI). Dit zijn methoden die inzicht geven in hoe algoritmes beslissingen nemen. Volgens hem gaan veel van deze technieken niet ver genoeg: ze tonen verbanden, maar verklaren niet waarom die verbanden bestaan. En juist in een omgeving waarin bewijs en verantwoording centraal staan, is dat essentieel.

Om verborgen vooroordelen in taalmodellen op te sporen, ontwikkelde Robeer onder meer een ‘wat als’-machine, die test hoe gevoelig een AI-systeem is voor kleine variaties in teksten. Zijn inzichten komen samen in Explabox, een gereedschapskist waarmee datawetenschappers kunnen nagaan of hun modellen eerlijk en betrouwbaar zijn.

Begindatum en -tijd
Einddatum en -tijd
Locatie
Hybride: online (livestream link) en voor genodigden in het Academiegebouw, Domplein 29
Promovendus
M.J. Robeer
Proefschrift
Beyond Trust: A Causal Approach to Explainable AI in Law Enforcement
Promotor(es)
prof. dr. F.J. Bex
prof. dr. mr. H. Prakken
Co-promotor(es)
dr. A.J. Feelders
Meer informatie
Full text via Utrecht University Repository