FYI.

This story is over 5 years old.

Tech

Misschien moeten we killer robots toch niet verbieden

We kunnen het beter hebben over oorlog zelf dan over hypothetisch toekomsttechnologie.

Vorige week schreven we al over de duizenden wetenschappers, technologen en tech-celebz die aangevoerd door Stephen Hawking en notoire doemdenker Elon Musk vroegen om een verbod op kwaadaardige robots. Of eigenlijk, op "autonome wapens." Logisch natuurlijk, want niemand heeft zin in killer robots.

Hatsa, geregeld.

Gelukkig is er iemand die beargumenteerd dat dit allemaal best wel dom is – niet in die woorden, maar toch. Evan Ackerman, redacteur van de gerespecteerde robotsite IEEE Spectrum, zegtdat we killer robots niet zouden moeten verbieden. Ten eerste bestaat er niet zoiets als een verbod op killer robots, of een verbod dat ook maar iets betekent voor iemand die graag killer robots wil bouwen. In tegenstelling tot bijvoorbeeld chemische of biologische wapens, zijn er vrijwel geen barrières voor het bouwen van moordrobots.

Advertentie

De technologie is goedkoop en overal aanwezig. Materialen, zelfs hele geavanceerde, kunnen over gebouwd en gedistribueerd worden. Het ontwerpen en bouwen van killer robots lijkt namelijk een hoop op het ontwerpen en bouwen van normale robots.

Er valt teveel commerciële waarde te halen in het bouwen van quadcopters (en andere robots) met een groter uithoudingsvermogen, meer laadvermogen en alles wat je ook in een militair systeem zou willen. Op dit punt is het goed mogelijk dat kleine commerciële quadcopters net zo geavanceerd zijn (en veel goedkoper) dan door het leger gebruikt worden. We gaan niet stoppen met dat onderzoek, omdat iedereen bijvoorbeeld bezorgdrones wil. Over het algemeen is technologie niet goed of slecht: het is onze keuze wat we ermee doen. Of we het inzetten om goede of slechte dingen te doen. We kunnen niet gewoon onze handen over onze ogen leggen en "STOP!!!!" schreeuwen als we iets zien aankomen dat mogelijk eng is, terwijl er gelijktijdig zoveel ruimte is voor positieve vooruitgang.

Maar dat een verbod zinloos is, is geen argument tegen een verbod. Het betere argument dat Ackerman maakt, heeft te maken met de potentie van bewapende autonome robots om oorlog veiliger te maken. Algoritmes maken niet dezelfde fouten als soldaten, en lijden niet aan een rode waas voor hun ogen. We kunnen vertrouwen op het beoordelingsvermogen van een robot omdat een robot alleen het beoordelingsvermogen heeft dat wij 'm meegeven. Tenminste, ergens in de toekomst, omdat de technologie hiervoor nog niet echt bestaat. We hebben het hier over een ideaal, een uitgebreid geteste toekomstrobot. Wat precies de robots is die verboden zou moeten worden volgens Musk en co.

Advertentie

Ackerman vervolgt:

Ik ben het ermee eens dat er een risico bestaat dat autonome wapens het makkelijker maken om te kiezen voor geweld. Maar dat was ook waar toen iemand doorkreeg dat hij een rots op iemand kon gooien, in plaats van eropaf lopen en diegene stompen. Mensen zijn onophoudelijk bezig geweest met het ontwikkelen van technologie die ervoor zorgt dat het eigen risico minimaal is – en met onze ballistische en kruisraketten die we al een halve eeuw hebben, hebben we dat wel onder controle. Als je wil beargumenteren dat autonome drones en bewapende robots de lat nog lager legger, dan heb je gelijk. Maar de lat ligt sowieso al best wel laag. Maar fundamenteler gezien, schuif je de schuld af op technologie in plaats van de mensen die beslissen hoe ze die technologie moeten gebruiken.

En dat is het punt waarop ik wil blijven terugkomen: technologie de schuld geven voor de beslissingen die wij maken, is in het beste geval contraproductief en in het slechtste onzinnig. Elke technologie kan voor kwade doeleinden gebruikt worden, en veel technologie die ontwikkeld werd om mensen te doden, is nu verantwoordelijk voor onze grootste prestaties – zie het temmen van kernenergie of mensen de ruimte in krijgen op een ballistische raket. Als je het argument wil maken dat dit eigenlijk gaat om de beslissing van hoe we technologie gebruiken, en niet om de technologie zelf, dan is dat fantastisch. Ik sta totaal achter je. Maar technologie verbieden gaat het probleem niet oplossen, als het probleem is dat mensen technologie graag willen gebruiken voor kwaadaardige doeleinden. Dan hebben we een veel grotere petitie nodig.

Iemand moest zich uitspreken tegen de open brief en ik ben blij dat het gebeurd is. Als we kanten kiezen over hypothetische toekomsttechnologie, dan ga ik liever uit van een positief hypothetische wereld dan een negatieve. Als we AI trainen om onderscheid te maken tussen soldaten en burgers, kan die AI soldaten ook helpen met hetzelfde. Maar dat werkt alleen als de programmeurs van die AI en de soldaten die er gebruik van maken fucks geven over het doden van burgers. En dat is lang niet altijd het geval.

De discussie gaat uiteindelijk over oorlog en niet over technologie. Geloof het of niet, maar de wereld wordt steeds humaner en gemiddeld minder oorlogsbelust. Het is dan ook niet gek dat we een punt bereikt hebben waarin we oorlog willen zien als 'humaan' of 'veilig.' We willen geen oorlog meer, maar weten niet zo goed wat dan wel.

En daarom ruziën we over robots.