Promotie: Hybrid Cognitive-Affective Strategies for AI Safety

Proefschrift van N.-.M. Aliman MSc

tot

Kunstmatige intelligentie (AI) kan grote positieve effecten hebben op de samenleving. Bijvoorbeeld als instrument voor efficiëntere beleidsvorming en wetshandhaving of als instrument ter bevordering van het menselijk welzijn. AI brengt echter ook aanzienlijke risico's met zich mee, zoals de toename van (cyber)criminaliteit, spionage en nog veel meer. Dit heeft geleid tot het opkomen van onderzoek naar de veiligheid van AI. Deze theoretische en analytische thesis biedt een diepgaand transdisciplinair onderzoek om te begrijpen hoe AI-risico's kunnen worden ondervangen met behulp van wetenschappelijk onderbouwde, hybride cognitie-effectieve strategieën.

De geïdentificeerde strategieën zijn hybride, want voor een mensgerichte aanpak van dit brede vraagstuk kunnen AI-systemen niet in isolatie van mensen worden geanalyseerd. De aard van menselijke entiteiten en de eigenschappen van mens-machine interacties moeten worden beschouwd binnen een socio-technologisch kader, rekening houdend met het inherent affectieve karakter van de menselijke cognitie. Door gebruik te maken van een op cyberveiligheid gerichte benadering, waarbij niet alleen onbedoelde mislukkingen maar ook opzettelijke kwaadwilligheid in aanmerking worden genomen, identificeert het proefschrift kortetermijn- en langetermijnstrategieën en bestrijkt het zowel de beheersaspecten van AI als de AI-engineeringvereisten.

Het proefschrift gaat in op twee soorten systemen: nog niet bestaande hypothetische AI-systemen die in staat zijn om bewust verklarende kennis te creëren en te begrijpen (Type II), en de huidige AI-systemen die dat niet kunnen (Type I). De zinvolle beheersing van Type I AI-systemen wordt in detail geanalyseerd met het gebruik van autonome voertuigen als voorbeeld, maar er wordt ook ingegaan op Type II-systemen. Het proefschrift introduceert ook de AI-veiligheidsparadox, die stelt dat uitlijning van de waarden en controle geconjugeerde eisen in de AI-veiligheid vertegenwoordigen. Terwijl het probleem van de uitlijning van de waarden betrekking heeft op de vraag hoe AI-systemen kunnen worden gebouwd die zijn afgestemd op de ethische waarden van de mens, is het controleprobleem de vraag hoe AI-systemen kunnen worden geïmplementeerd die niet schadelijk zijn voor de mens.

Begindatum en -tijd
Einddatum en -tijd
Locatie
Academiegebouw, Domplein 29 & online (link)
Promovendus
N.-.M. Aliman MSc
Proefschrift
Hybrid Cognitive-Affective Strategies for AI Safety
Promotor(es)
prof. dr. P.J. Werkhoven
prof. dr. ir. J.F.M. Masthoff