Een robot als soldaat: een goed idee?

Gevoelens, moreel besef, sterfelijkheid. Dat hebben ze niet. Maar een ‘license to kill’ wel: killer robots. Deze nieuw soort oorlogswapens, ook wel autonome wapens genoemd, kunnen zélf beslissen of ze schieten op een doel. Zonder de betrokkenheid van een mens. En dat is nieuw: een robot die zélf de beslissing neemt. Wellicht zelfs over leven en dood als hij moet schieten op een mens. Dat is ook het verschil met drones. Dit zijn ook onbemande wapens, maar de beslissing om te schieten ligt nog bij een mens. Autonome wapens worden momenteel nog niet gebruikt, maar wel (snel) ontwikkeld.

En verschillende landen, zoals de Verenigde Staten, China en Groot-Brittannië zien er voordelen in. Ze zijn goedkoper en gaan niet dood, waardoor je minder doden zult hebben onder je eigen manschappen. Dat laatste kan dan weer steun opleveren voor een uitzending van troepen. Robots kunnen verder ook geen last krijgen van psychologische problemen. Tevens bieden ze een oplossing voor het afnemend aantal aanmeldingen voor het leger, zoals in de VS gebeurt. Toch stuit het mogelijk gebruik van de killer robot op veel verzet.

Een belangrijk bezwaar tegen de killer robot is dat het zich niet kan houden aan de regels die gelden in oorlogstijd, het humanitair oorlogsrecht. Als dit recht niet wordt gerespecteerd, is er een grotere kans op dodelijke burgerslachtoffers. Hierbij speelt een belangrijk principe van het oorlogsrecht een rol, de proportionaliteit: als er een militair doel, bijvoorbeeld een wapenopslag, moet worden beschoten, moet het leger beoordelen of het mogelijke aantal gedode burgers hierbij ertoe in verhouding staat. Burgerdoden moeten namelijk zoveel mogelijk voorkomen worden, maar dat is niet altijd mogelijk. Het gaat dus om een zeer lastige afweging, waarvan je kunt afvragen of een robot die kan maken.

Een andere belangrijke regel van het oorlogsrecht zegt dat er een onderscheid moet worden gemaakt tussen burgers en militairen. Alleen de mensen die meevechten tijdens het conflict, mogen worden aangevallen. Maar hoe weet een robot wie wie is? Voor een mens is het vaak al lastig te onderscheiden wie wel en niet meevecht. Denk bijvoorbeeld aan terroristen. Zij dragen geen duidelijk uniform. Een geopperde oplossing hiervoor is het gebruik van sensoren door de robot. Maar dan dient het computerprogramma de signalen wel juist te analyseren. En hiervoor is veel informatie nodig over het mogelijke doel. Er moeten dan bijvoorbeeld criteria worden vastgesteld van wat een burger is. Maar wat zijn deze? En dat robots kunnen falen in het maken van onderscheid is gebleken. Zo schoten in 1988 de Amerikanen een Iraans passagiersvliegtuig neer, omdat het door de computer als vijandelijk werd aangemerkt. Er vielen 290 doden. Tijdens de invasie van Irak in 2003 gebeurde bijna hetzelfde: twee vliegtuigen werden aangezien voor raketten.

En als de robot dan zijn boekje te buiten gaat en burgers doodschiet, kom je bij het volgende probleem: wie is verantwoordelijk? De commandant? De producent van de robot? De programmeur? Of misschien de robot zelf? Dat laatst zou overigens qua causaal verband wel zo zijn, maar juridisch en moreel kan een robot natuurlijk niet verantwoordelijk worden gehouden. Dus dient er een mens te worden aangewezen als schuldige. Maar niemand was echter direct bij de beschieting betrokken en niemand gaf de robot de directe opdracht om te schieten. De verantwoordelijkheid vaststellen wordt dus ingewikkeld. En hierdoor ligt straffeloosheid op de loer, d.w.z. niemand wordt verantwoordelijk gehouden. En de mogelijke gevolgen daarvan: de inzet van robots gebeurt sneller en het verantwoordelijkheidsgevoel naar de oorlogsslachtoffers wordt minder.

Met al deze bezwaren is er binnen de internationale gemeenschap dan ook verzet tegen deze nieuw type wapens. Zo zegt de Campaign to Stop Killer Robots, een internationale coalitie bestaande o.a. uit Human Rights Watch en Pax Christi International: “Allowing life or death decisions to be made by machines crosses a fundamental moral line”. De organisatie wil daarom nu al een verbod op deze wapens. Verder riep het Europees Parlement in 2014 de EU-lidstaten op tot een verbod op de ontwikkeling, productie en het gebruik van autonome wapens. Opmerkelijk genoeg is het Internationale Rode Kruis, hoeder van het oorlogsrecht, niet voor een verbod. Wel deelt het de zorgen en vraagt landen daarom de juridische en ethische problemen van autonome wapens te overwegen. De visie van het Rode Kruis ontwikkelt zich nog en zal afhankelijk zijn van de technische ontwikkeling van de killer robots.

Bronmateriaal:
Categorization and legality of autonomous and remote weapons systems, Hin-Yan Liu

Blog ook te vinden op: https://internationallawandjustice.wordpress.com/

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *