Duizenden wetenschappers roepen om een direct verbod op autonome wapens

FYI.

This story is over 5 years old.

Tech

Duizenden wetenschappers roepen om een direct verbod op autonome wapens

“Oorlog is bloederig, verschrikkelijk en pijnlijk. Zo moet het ook blijven.”

Volgens meer dan 1.000 experts op het gebied van kunstmatige intelligentie zijn autonome wapens de Kalashnikovs van de toekomst. Goedkoop, dodelijk en onmogelijk uit de handen van kwaadwillenden te houden. Wapens met kunstmatige intelligentie zijn het centrum van de volgende wapenwedloop.

Dat zijn woorden uit een open brief van het Future of Life Institute, een organisatie die gewijd is aan het inperken van existentiële risico's. De brief wordt door duizenden ondersteund, waaronder bekende woordvoerders voor de gevaren van KI als Stephen Hawking en Elon Musk.

Advertentie

"De mens discussieert al jaren over autonome wapens," zegt Max Tegmark, professor bij MIT en een van de oprichters van FLI. "Dit zijn de KI-experts die deze technologie zelf aan het bouwen zijn, die hun mond opentrekken en zeggen dat ze hier absoluut niets mee te maken willen hebben."

Hij vergelijkt de situatie met uitspraken van fysici, biologen en chemici die eerder al kenbaar maakten dat hun wetenschappelijke vooruitgang niet mag worden gebruikt voor de ontwikkeling van nucleaire, biologische of chemische wapens.

"Er zijn onderhandelingen geweest bij de Verenigde Naties in Genève om een verbod in te stellen op autonome wapens," zegt hij. "Na gesprekken met die mensen werd het duidelijk voor ons dat het de discussie en onderhandelingen zou helpen als het duidelijk was dat er een groot draagvlak onder wetenschappers is, en niet alleen onder humanitaire organisaties.

"Oorlog is bloederig, verschrikkelijk en pijnlijk. Zo moet het ook blijven."

Volgens de brief worden autonome wapens gedefinieerd als "wapens die doelwitten kunnen kiezen en aanvallen zonder menselijke omgang," met als voorbeeld "bewapende quadcopters die mensen kunnen opsporen en elimineren zodra ze bepaalde criteria hebben gevonden." De huidige militaire drones vallen daar nog niet onder. Een mens moet daar nog steeds de "trekker" overhalen.

Walsh en zijn vele ondertekenaars verzoeken overheden dringend een wapenwedloop in KI wapens de stoppen voordat deze echt is begonnen. "Er wordt nu al gesuggereerd dat dit een even grote invloed op oorlogvoering kan hebben als de ontdekking van buskruit en kernwapens destijds," zegt Walsh.

Advertentie

Tegmark legt uit waarom autonome wapens alles kunnen veranderen. "Het opent een wereld aan nieuwe mogelijkheden. Je kan een gevecht ingaan, of een aanslag begaan zonder enig risico voor jezelf. Je kan het anoniem doen. Je hebt geen idee wie een drone heeft gestuurd die zomaar mensen begint te vermoorden."

Sommige groepen beargumenteren dat het gebruik van autonome wapens het aantal menselijke slachtoffers in gevechten kan verminderen. De wetenschappers denken echter dat het de drempel om een conflict te starten te veel zal verlagen.

"De inzet van mensenlevens is juist een van de enige limiterende factoren die we nog hebben om oorlogvoering in te perken," vertelt Tegmark me. "Politici willen geen doodskisten het land in zien komen en zelfs de meeste terroristen willen niet dood."

De brief waarschuwt ervoor dat autonome wapens in het bijzonder goed zouden zijn in "taken als (huur)moord, het destabiliseren van naties, het onderdrukken van bevolkingsgroepen en het selectief uitschakelen van etnische bevolkingsgroepen." Tegmark schildert een dystopisch toekomst af waarin politici vermoord worden door anonieme drones. Een wereld waarin dictators minderheden kunnen uitschakelen als zelfs zijn eigen troepen dat te gruwelijk vinden.

"Persoonlijk vind ik alles dat oorlogvoering 'schoner' maakt een slecht idee," voegt Walsh toe. "Oorlog is bloederig, verschrikkelijk en pijnlijk. Zo moet het ook blijven."

Advertentie

"Boko Haram is veel te incompetent om zelf te ontdekken hoe ze dit bouwen; en ISIS ook."

Een van de grootste andere zorgen is dat de technologie in de verkeerde handen valt, niet alleen omdat de prijs zal gaan zakken van wapens (het is nu niet echt makkelijk om een kernkop te kopen) en ook omdat de meeste militaire technologie uiteindelijk op de zwarte markt of in de handen van de tegenstander belandt.

"Als er ook maar een militaire grootmacht begint met het gebruik van wapens worden het de Kalashnikovs van morgen, iedereen zal ze hebben," zegt Tegmark. Hij merkt daarbij op dat het stoppen van autonome wapens zodra ze in de handel zijn even moeilijk te stoppen zal zijn als de huidige wapenhandel. Er moet nu actie ondernomen worden, voordat het te laat is.

"Boko Haram is veel te incompetent om zelf te ontdekken hoe ze dit bouwen; en ISIS ook," zegt hij. "Er is nog tijd om dit te stoppen als er een politieke wil voor is."

De technologie achter de wapens is niet tegen te houden; Walsh merkt op dat de code om auto's zichzelf te laten besturen makkelijk kan worden aangepast om gerichte wapens zichzelf autonoom te laten besturen. Het idee is daarom dat er een specifiek verbod op de productie van autonome wapens komt, zodat wapenproducenten ze niet op de markt kunnen brengen.

De wetenschappers vergelijken het plan met het verbod op verblindende lasers. Daar kwam in 1998 een VN protocol voor en dat verbiedt sindsdien het gebruik van laserwapens die specifiek zijn ontworpen om permanente oogschade aan te rechten. Ook dat werd uitgevoerd vanuit humanitaire redenen.

Advertentie

Natuurlijk bestaan er wel lasers die dat wel kunnen – en zelfs legaal zijn – maar door het protocol kunnen wapenproducenten wapens die op dat soort technologie is gebaseerd niet verkopen. In april kwam de VN al samen om LAWS (Lethal Autonomous Weapons Systems) te bespreken. Het Verenigd Koninkrijk stelt een internationaal verbod voor.

Het Future of Life Institute heeft al eerder gewaarschuwd over de risico's van kunstmatige intelligentie voor ons bestaan. Het instituut heeft daarom richtlijnen uitgezet voor wetenschappers in het gebied waar de nadruk ligt op het belang om KI onder controle te houden. Autonome wapens zijn volgens Tegmark een "schaamteloos voorbeeld van hoe technologie op heel heel stomme manieren heel heel slecht voor de mensheid kan zijn."

De KI-gemeenschap zegt dat er geen tijd te verliezen is om te voorkomen dat de hier voorgestelde toekomst een realiteit wordt.

"We praten hier over minder dan een decennium," zegt Walsh. "Het is nu tijd om dit te stoppen, voor het te laat is."

We zijn op zoek naar stagiairs die graag willen schrijven over alles wat met menselijke vooruitgang te maken heeft. Mail alejandro.tauber{at}vice.com voor info!