Long Read: Van mens tot datapunt tot doelwit van kamikazedrones

In de laatste uitgaven van de wekelijkse nieuwsbladen De Groene Amsterdammer en Knack schetsen de Realities of Algorithmic Warfare-onderzoekers Dr. Lauren Gould, Linde Arentze (PhD) en Dr. Marijn Hoijtink de realiteit van het gebruik van algoritmische en autonome oorlogsvoering en de impact ervan op burgerslachtoffers in Gaza en daarbuiten. Terwijl voorstanders van algoritmische oorlogsvoering al lang beweren dat AI de snelheid en precisie van oorlogsvoering zal vergroten en tegelijkertijd het aantal burgerslachtoffers zal verminderen, illustreert de analyse van Gould, Arentze en Hoijtink dat dit ver verwijderd is van hoe algoritmische oorlogsvoering zich in werkelijkheid afspeelt.

Door de hele AI 'kill chain' te traceren, van burgerslachtoffers tot de militairen die AI-gestuurde wapensystemen inzetten en het militair-industrieel-commercieel complex dat AI-gestuurde wapensystemen ontwikkelt, kunnen Hoijtink, Gould en Arentze de steeds complexere sporen van verantwoordelijkheid in hedendaagse algoritmische oorlogsvoering ontrafelen. Hun volledige analyse is te vinden in De Groene Amsterdammer en Knack. Dr. Marijn Hoijtink gaat ook dieper in op het onderwerp in De Groene's podcastserie 'Buitenlandse Zaken'. Een eerdere Engelse versie van hun betoog is te lezen in The Conversation.

Hun analyse begint met recente onthullingen waarbij de Israëlische strijdkrachten (IDF) AI-beslissingsondersteunende systemen gebruiken in hun doelwit praktijken in Gaza. Volgens inlichtingenofficieren van de IDF, die spraken met onderzoeksjournalisten van +972 Magazine en Local Call, vertrouwt de IDF op massasurveillance en algoritmische systemen om bewegingen te volgen en Hamas-militair lidmaatschap te voorspellen onder Palestijnen die in Gaza wonen. Het gebruik van deze technologieën heeft het aantal gebouwen dat als doelwit wordt geïdentificeerd verhoogd van 50 per jaar naar 100 per dag en heeft inlichtingenofficieren in staat gesteld om tot 37.000 Palestijnen als potentiële doelwitten aan te merken. Bovendien melden de inlichtingenofficieren dat ze slechts 20 seconden hebben om te beslissen of het door de computer gegenereerde doelwit legitiem is. Deze door AI aangestuurde oorlog heeft 39.324 doden en 90.830 gewonden geëist en 60 procent van de civiele infrastructuur in Gaza vernietigd.

In lijn met hun nieuwe onderzoeksagenda illustreren Gould, Arentze en Hoijtink in hun analyse waarom het belangrijk is om verder te gaan dan alleen te kijken naar het speculatieve potentieel en toekomstige gebruik van algoritmen in oorlogsvoering, en om de realiteit te onderzoeken van hoe AI de snelheid van oorlogsvoering en de omvang van burgerschade op hedendaagse slagvelden verhoogt. Ze onderzoeken eerst welke systemen de IDF gebruikt en traceren de lange geschiedenis van operationele ervaringen, massasurveillancepraktijken en de militair-industriële samenwerkingen die hun innovatie en inzet mogelijk maakten. Hun aanpak onthult een wereldwijd militair-industrieel-commercieel complex dat niet alleen voorziet in de behoeften van de IDF, maar ook legers over de hele wereld bevoorraadt en een blijvende impact heeft op de slagvelden in Jemen, Irak, Syrië en Oekraïne.

Ten tweede zoomen de auteurs terug op de rapporten van +972 Magazine en Local Call en analyseren ze hoe Israëls militaire gebruik van algoritmische technologieën de interactie tussen mens, machine en mens in operationele contexten verandert. Ze benadrukken hoe AI het aantal doelen vergroot en besluitvormings- en targetingprocessen versnelt, terwijl de verantwoordelijkheid voor de aangerichte schade wordt gedelegeerd naar de technologieën en/of hun eindgebruikers. Als we verder kijken dan het aantal doden, laten de auteurs zien dat Israëls algoritmische praktijken in Gaza bekende patronen van burgerschade in stedelijke oorlogsvoering verergeren en bovendien nieuwe, onvoldoende onderzochte vormen van lijden introduceren. Zij concluderen dat algoritmische targetingpraktijken, naast een toename van doden, gewonden en vernietigingsniveaus, een ‘psychische gevangenschap’ creëren, waarbij burgers zich ervan bewust zijn dat ze voortdurend worden bewaakt, maar niet weten welk gedrag door de machine zal worden uitgevoerd.