Zorgt AI in oorlogen echt voor minder slachtoffers? “Dat valt te betwijfelen”, zegt Lauren Gould

FWO-beurs voor onderzoek naar algoritmische oorlogsvoering en de rol van AI in conflicten

Gebouw in Gaza na bombardement door Israël. Foto: Hosny Salah, via Pixabay
Gebouw in Gaza na Israëlisch bombardement. Foto: Hosny Salah

Volgens defensiespecialisten en ontwikkelaars leidt kunstmatige intelligentie (AI) in militaire conflicten tot minder burgerslachtoffers. Lauren Gould, expert in hedendaagse oorlogsvoering, betwijfelt dat. “AI versnelt de kill chain, met de kans op meer burgerslachtoffers als gevolg. In Gaza zagen we dit dagelijks gebeuren.” Om het gebruik van AI in oorlogen te onderzoeken, kregen Gould en Marijn Hoijtink (Universiteit Antwerpen) onlangs een Research Project Grant van het Vlaamse Fonds Wetenschappelijk Onderzoek (FWO).

Hoe Israël AI inzet in de oorlog in Gaza

De stad Chernihiv in Oekraïne in maart 2022, na een aanval van Rusland. Foto: Anzhela Bets, via Unsplash
Een gebouw in de Oekraïense stad Chernihiv na een Russische aanval. Foto: Anzhela Bets

Er bestaan nog veel vragen rondom de rol van AI in hedendaagse conflicten. Op welke manieren werken overheden en commerciële bedrijven samen? Hoe worden de gebruikte algoritmes geprogrammeerd? Hoe betrouwbaar is de data? En waar ligt de verantwoordelijkheid voor de verschillende vormen van veroorzaakte schade en burgerleed? Maar één ding is duidelijk: AI is aan het uitgroeien tot een integraal onderdeel van moderne oorlogsvoering.

“In de oorlogen in Gaza en Oekraïne zien we steeds vaker dat defensie samenwerkt met commerciële bedrijven als Google, Microsoft en Palantir”, vertelt Gould. “Hierdoor kan AI worden ingezet om vijanden en potentiële doelwitten te detecteren, met alle gevolgen van dien.”

“Palestijns-Israëlische journalisten onthulden vorig jaar bijvoorbeeld nog dat het Israëlische leger gebruikmaakte van in ieder geval drie AI-systemen. ‘Lavendel’ zou Hamasmilitanten kunnen identificeren, ‘Evangelie’ zou achterhalen waar zij wonen, en ‘Where’s Daddy?’ zou voorspellen wanneer zij thuis zijn. Daarop volgde dan een aanval.”

In de oorlogen in Gaza en Oekraïne zien we dat defensie vaker samenwerkt met commerciële bedrijven als Google en Microsoft.

Meer burgerslachtoffers door de AI-kill chain?

“Volgens defensiespecialisten zorgt AI voor een gerichtere oorlogsvoering en daarmee voor minder burgerslachtoffers, maar dat is nog maar de vraag”, zegt Gould. “In de praktijk zien we dat AI de kill chain eerder versnelt, dat is het proces van identificeren van een doelwit tot de aanval.”

“Zo weten we dat Israël recent veel meer doelwitten identificeerde, dankzij AI-systemen. Vóór de Gazaoorlog ging dat om ongeveer vijftig per jaar, tijdens de oorlog nam dat aantal fors toe tot wel honderd doelwitten per dag. Bovendien hadden Israëlische officieren slechts twintig seconden om de door AI gegenereerde informatie te controleren en te beslissen of een doelwit legitiem is.”

Het UNRWA-gebouw in Gaza naar een bombardement door Israël. Foto: Khalid Kwaik, via Unsplash
Een gebouw van United Nations Relief and Works Agency for Palestine Refugees in the Near East (UNRWA) na een Israëlische aanval. Foto: Khalid Kwaik

De impact van AI op burgerleed en verantwoordelijkheid in conflicten

Een versnelde kill chain leidt inherent tot meer doden, gewonden en materiële schade, zegt Gould, en mogelijk ook tot een toename van nieuwe vormen van burgerleed. “Dat gaan we verder onderzoeken, maar we zien bijvoorbeeld een soort constante ‘psychische gevangenschap’. Burgers weten dat er dag en nacht op grote schaal data over hen wordt verzameld, maar niet welk gedrag of fysiek kenmerk ze tot doelwit kan maken.”

Bovendien vervaagt de helderheid over wie verantwoordelijk is voor het burgerleed, legt Gould uit. “Officieren die de AI gebruiken schuiven de verantwoordelijkheid af op de technologie. De commerciële bedrijven zeggen dat ze geen zeggenschap hebben over hoe hun technologie wordt ingezet, en defensie ontkent vaak dat ze de technologie gebruikt.”

Waar de verantwoordelijkheid ligt vervaagt: officieren wijzen naar de technologie, bedrijven ontkennen zeggenschap en defensie ontkent gebruik.

“Het onderzoek dat we nu gaan doen zal laten zien hoe AI de dynamiek van oorlogen verandert en welke gevolgen deze ontwikkelingen hebben voor gewone mensen”, besluit Gould. “Dit is geen technologie van de toekomst. Het gebeurt nú, en de impact is enorm.”

Onderzoek naar de gevolgen van AI in oorlogen, veldwerk in Gaza en Oekraïne

Met de FWO Research Grant gaan Gould en Hoijtink op zoek naar antwoorden op de bestaande vraagstukken over algoritmische en datagedreven oorlogsvoering. Het onderzoek Tracing the Realities of Algorithmic Warfare komt te vallen onder Goulds project Realities of Algorithmic Warfare and Hoijtinks Platform Wars.

De beurs maakt het mogelijk om een promovendus aan te nemen en met maatschappelijke partners veldwerk te doen onder technologisch geavanceerde legers en in Oekraïne en Gaza. Ook willen de onderzoekers de bekendheid van de algoritmische kill chain, en de haken en ogen ervan, inzichtelijk maken voor een breed publiek.