In 2009 bezocht de wapendeskundige Andrew Feinstein de Paris Air Show, de grootste lucht- en ruimtevaarttentoonstelling ter wereld. Feinstein is een voormalig Zuid-Afrikaans politicus, een expert op het gebied van de internationale wapenhandel. Hij bleef hangen bij een presentatie van het Israëlische bedrijf Elbit Systems, Israëls grootste particuliere wapenhandelaar. Medewerkers vertoonden daar promotiebeelden van killer drones.
Maanden later onderzocht Feinstein de drone-aanval die was getoond in de promotiebeelden en ontdekte dat daarbij onschuldige Palestijnen waren gedood, inclusief kinderen. Dit werd niet verteld op de Parijse luchtvaartshow. ‘Dit was mijn introductie tot de Israëlische wapenindustrie en de manier waarop die zichzelf in de markt zet’, zegt Feinstein.
Bovenstaande anekdote en quote zijn afkomstig uit het boek The Palestine Laboratory van de schrijver Antony Loewenstein, dat in mei 2023 verscheen. Loewenstein laat zien hoe de bezette Palestijnse gebieden gebruikt worden om wapens te testen.
Combat proven
Het Nederlandse ministerie van Defensie heeft met grote regelmaat wapens en militaire uitrusting gekocht bij Elbit Systems. Vorig jaar mei plaatste het ministerie nog een bestelling van 315 miljoen dollar bij het Israëlische wapenbedrijf, dat wapens aanprijst met de term ‘combat proven’. Technologie die zich bewezen heeft op het slagveld.
Nederland plaatste een bestelling van 315 miljoen dollar bij het Israëlische wapenbedrijf
Tunahan Kuzu (DENK) wees er in de Tweede Kamer op dat ook de wapensystemen die door Nederland zijn aangeschaft, waren getest op Palestijnen. Op zijn Kamervragen daarover gaf toenmalig minister Kajsa Ollongren wat stuntelig antwoord. Ze beweerde dat ‘combat proven’ in dit geval niks zei over de inzet in het Israëlisch-Palestijns conflict.
‘Meent de minister dat?’, vroeg Kuzu verbaasd.
‘Omdat de Israëlische defensie-industrie wapens levert aan andere landen’, zei Ollongren, ‘zijn er dus andere situaties denkbaar waarin ze combat proven zijn.’
Een ontwijkend antwoord, dat de zaken er niet per se beter op maakt. Elbit levert ook wapens aan autoritaire staten zoals Myanmar en Azerbeidzjan.
Militaire samenwerking
De bestelling van het Nederlandse leger in mei vorig jaar gaat om het Puls-raketsysteem. Een maand voor de aankoop keurde de Tweede Kamer een defensieverdrag goed tussen Nederland en Israël. Binnen dat verdrag, dat nog goedgekeurd moet worden door de Eerste Kamer, wordt de militaire samenwerking tussen de twee landen verder uitgebreid.
Nederland is het eerste NAVO-land dat het Puls-systeem kocht van het Israëlische Elbit. Het is een autonoom artillerie-raketsysteem, dat sinds 7 oktober 2023 ook veel wordt gebruikt door het Israëlische leger in de Gaza-oorlog. Een soldaat kan meerdere systemen tegelijk bedienen en kunstmatige intelligentie gebruiken om razendsnel nieuwe doelwitten te genereren, op basis van satellietdata, of surveillancedata.
Een woordvoerder van het ministerie laat weten dat Defensie het systeem heeft aangeschaft ‘omdat het voldeed aan de Nederlandse eisen om meerdere raketten mee te voeren, het in de toekomst geschikt is voor munitie van Europese producenten en omdat Europese partners zoals Denemarken het Puls-systeem ook aanschaffen’. Volgens Defensie zijn de autonome functionaliteiten geen overweging geweest in de aankoop. ‘Het door Defensie aangeschafte systeem heeft deze functionaliteit niet.’
Autonome drones
Nederland maakt er in dit geval misschien nog geen gebruik van, andere landen doen dat wel. AI speelt een steeds grotere rol op het slagveld, zoals in Gaza en Oekraïne.
Lees de Wordt Vervolgd Nieuwsbrief
Volgens Javier Alonso-Mora, de directeur van het Autonomous Robots Lab van de TU Delft, is het ‘nog steeds heel ingewikkeld om een robot zich autonoom door een onbekend gebied te laten manoeuvreren. Autonome drones kunnen nu alleen nog iets in testgebieden en simpele omgevingen. De drones die je ziet in Oekraïne, zijn vaak door een piloot bestuurd of vliegen autonoom in open terrein naar een opgegeven locatie’.
Surveillancedata
Geheel autonome killer drones, die hun weg vinden in complex stedelijk terrein, zijn er dus waarschijnlijk nog niet. Maar een kunstmatig intelligent moordsysteem bestaat al wel.
De Israëlische journalist Yuval Abraham schreef meerdere artikelen over het gebruik van AI in Gaza voor het Israëlische +972 magazine, een online opinieweekblad. Hij sprak met bronnen uit het Israëlische leger en de inlichtingendiensten. Abraham beschrijft een systeem met de naam Lavender, dat berekent welke Gazanen met grote waarschijnlijkheid lid zijn van Hamas.
Wanneer precies is een wapen autonoom? En: wat is betekenisvolle controle?
Het systeem werkt met surveillancedata van alle 2,3 miljoen inwoners van Gaza. Per persoon zijn er honderden of duizenden gegevens. Of iemand lid is van een chatgroep met andere Hamasleden, of iemand vaak van adres of telefoon wisselt, of iemand vaak op locaties komt waar ook andere Hamasleden komen.
37 duizend doelwitten
Lavender wees zo ongeveer 37 duizend doelwitten aan. De locaties van de telefoons van deze doelwitten waren bekend, omdat het telecomnetwerk van Gaza onder Israëlische controle staat. Ook kon het Israëlische leger zien hoeveel mobiele telefoons er in de buurt van een doelwit zijn.
De informele regel is, volgens de bronnen van Abraham, dat bij het bombarderen van een gebouw met een onbelangrijk Hamaslid het toegestaan is om vijftien tot twintig onschuldige burgers te doden. In het geval van belangrijke Hamasleden mag het getal oplopen tot honderd.
Volledig autonoom is Lavender nog niet: een militair moet nog op een knop drukken. Maar van de door het leger geclaimde ‘betekenisvolle menselijke controle’ is ook geen sprake. Abrahams hoorde van een van zijn bronnen dat de enige manier waarop door een mens werd gekeken of een voorspelling klopte, de data van het stemgeluid waren. Was er een mannenstem gekoppeld aan een geïdentificeerd Hamaslid, dan was de voorspelling ‘goed’. Was het een vrouwenstem, dan was er iets misgegaan.
Menselijke controle
Volgens Jonathan Kwik, onderzoeker AI en internationaal recht bij het T.M.C. Asser Instituut in Den Haag, voert ‘ook Israël normaliter een analyse uit na een aanval of het doelwit geraakt is, of er nevenschade is, enzovoort. In Gaza doen ze dat totaal niet. Dit is onrechtmatig. Ik ben meestal diplomatiek, maar van een betekenisvolle menselijke controle is hier absoluut geen sprake.’
Wat nieuw is bij AI-wapens, zegt Kwik, is hoe belangrijk het is om ze te testen op een echt slagveld. ‘Dat is anders bij een raket. Dat is gewoon natuurkunde. Als je weet hoe je een traject moet berekenen, dan weet je waar dat ding valt. Vanuit het humanitair oorlogsrecht is er de verplichting om alle wapens die je hebt te valideren en testen, of ze dus conform het humanitair oorlogsrecht gebruikt kunnen worden. Het probleem met deze AI-wapens, is dat die gegevens vaak fabrieksgeheim blijven. En dan is het ook heel moeilijk om de bias te bepalen.’
Hoe zijn de systemen getraind? Hoe wordt het gebruik gevalideerd? En zijn ze getraind in situaties waarbij mensenrechten geschonden zijn? Het zijn vragen die steeds relevanter worden. Zeker als systemen steeds autonomer gaan functioneren.
Killer robots
Stop Killer Robots – een coalitie van ngo’s, waaronder Amnesty International, voor een verbod op dodelijke autonome wapens – stelt op zijn website dat: ‘… een machine geen beslissing over leven en dood zou mogen nemen’. De Verenigde Naties uiten ook al langer hun zorgen.
Lees ook: De robot wijst huizen van Hamasstrijders aan
Ilse Verdiesen is gepromoveerd op het ontwerpen van controlemechanismen van AI-systemen in het militaire domein. Ze is naast onderzoeker aan de TU Delft ook werkzaam bij het ministerie van Defensie. ‘Ik had wel verwacht dat dit soort systemen toegepast gingen worden’, zegt ze, ‘maar niet dat het zo snel zou gaan. Het is verontrustend dat de technologie nu zo snel gaat, dat de regelgeving het niet bijhoudt.’
Het Israëlische leger ontkent dat het gebruikmaakt van ‘een kunstmatig intelligentiesysteem dat terroristen identificeert, of probeert te voorspellen of een persoon een terrorist is’. In een verklaring laten de Israëlische strijdkrachten weten dat hun richtlijnen analisten verplichten om onafhankelijke onderzoeken uit te voeren, waarin zij verifiëren of de geïdentificeerde doelen voldoen aan de relevante definities in overeenstemming met het internationaal recht en de Israëlische richtlijnen.
Men-in-Black-instrument
Maar die beweringen van het Israëlische leger zijn ongeloofwaardig. In februari 2023 gaf een zekere ‘kolonel Yoav’ een lezing tijdens de ‘AI week’ van de universiteit van Tel Aviv. Yoav is het hoofd van het Data Science and AI Center van Unit 8200. De NSA van Israël. ‘Aan het einde van deze lezing zullen we ons Men-in-Black-instrument activeren’, grapt hij, en vertelt daarna over de enorme hoeveelheid ruwe data die bij Unit 8200 binnenkomt voor analyse. Data van satellieten, telefoons, slimme horloges, camera’s en internet.
Hij geeft het voorbeeld van een terroristische groep waarvan een paar leden bekend zijn. Een kunstmatig intelligent systeem wijst op basis van hun data een ring van bekenden aan van bij het Israëlische leger bekende Hamasleden, met een getal tussen de 0 en de 1, iets als 0,34 of 0,89. Hoe dichter iemand bij de 1 zit, hoe groter de kans dat hij een Hamaslid is. ‘Ik zie het als overstappen van het tijdperk van de ansichtkaart naar het digitale tijdperk’, aldus kolonel Yoav.
Het machinaal doden, met hulp van AI, wordt nu uitgetest op de slagvelden in Gaza. Het maakt het makkelijker om grote aantallen doelwitten te ‘genereren’. Om in de ansichtkaart-analogie te blijven: het is mogelijk om met één druk op de knop een groot aantal e-mails te sturen. Als de wapensystemen in Gaza voldoen, zal de vraag ernaar stijgen. Ook in Nederland. Het roept nieuwe vragen op. Wanneer is iets autonoom en wat is betekenisvolle controle? En: kun je ethisch gebruikmaken van AI die op een onethische manier getraind is?