Europees project onderzoekt kunstmatige intelligentie die eigen beslissingen kan uitleggen

Utrechtse tak van NL4XAI-project in september van start

In het Europese project NL4XAI, Interactive Natural Language Technology for Explainable Artificial Intelligence, gaan elf creatieve en innovatieve jonge onderzoekers aan de slag met het ontwerpen en implementeren van een nieuwe generatie van zelfverklarende AI-systemen. Aan de Universiteit Utrecht begint op 1 september Alexandra Mayn met haar promotie op het project ‘Explaining Logical Formulas’, onder begeleiding van prof. Kees van Deemter.

Volgens de EU-wetgeving hebben mensen recht op uitleg van beslissingen die op hen van invloed zijn. Dat geldt ook voor beslissingen genomen door kunstmatige intelligentie (AI). AI-gebaseerde systemen werken echter vaak door automatisch te leren van data, en missen vaak de vereiste transparantie. Daarom is het belangrijk om transparantere AI-systemen te ontwikkelen.

Kees van Deemter
Prof. Kees van Deemter (foto: Ivar Pel)

Uitleg van logische formules

Alexandra Mayn zal onder begeleiding van prof. Kees van Deemter werken aan het automatisch uitleggen van logische formules. Wiskundige logica speelt een belangrijke rol in veel onderzoeksgebieden, waaronder kunstmatige intelligentie, filosofie en taalkunde. Het is voor mensen echter soms moeilijk precies te begrijpen wat een logische formule betekent. Dat is bijvoorbeeld het geval als formules zeer complex zijn, een ongewone structuur hebben, of als de menselijke lezer nog niet volledig gewend is aan de conventies van de logica.

Mayn zal onderzoeken hoe Natural Language Generation (NLG) technieken kunnen worden gebruikt om logische formules automatisch en effectief uit te leggen aan niet-experts, met behulp van in gewone taal geformuleerde teksten. Daarvoor gaat ze werken aan automatische technieken om logische formules te vereenvoudigen en te vertalen naar een optimaal begrijpelijke tekst in natuurlijke taal. Ook zal ze de toegevoegde waarde van de resulterende tekst voor de gebruikers empirisch evalueren.

NL4XAI

Naast de Universiteit Utrecht en TU Delft omvat het NL4XAI-project universiteiten en onderzoeksinstituten in het VK, Malta, Frankrijk, Spanje en Polen. De jonge onderzoekers volgen een breed opleidingsprogramma, training in natuurlijketaalgeneratie en -verwerking, argumentatietechnologie en interactieve interfaces voor explainable AI. Daarnaast krijgen ze training in ethische en juridische kwesties op dit gebied en in transdisciplinaire vaardigheden.

Open source framework

Daarmee worden de onderzoekers optimaal opgeleid voor het ontwerpen en bouwen van explainable AI-modellen die interactieve uitleg genereren in natuurlijke taal en visuele hulpmiddelen die intuïtief te begrijpen zijn voor niet-experts. De resultaten worden ook geëvalueerd met menselijke gebruikers in specifieke gebruikssituaties en worden toegankelijk gemaakt voor alle Europese burgers. De belangrijkste resultaten worden openbaar gemaakt en geïntegreerd in een gemeenschappelijk open source software framework voor explainable AI. De commercieel te exploiteren resultaten worden beschermd door middel van licenties of octrooien.

Dit project is gefinancierd uit het onderzoeks- en innovatieprogramma Horizon 2020 van de Europese Unie in het kader van de Marie Skłodowska-Curie-subsidieovereenkomst nr. 860621.