Maar dat een verbod zinloos is, is geen argument tegen een verbod. Het betere argument dat Ackerman maakt, heeft te maken met de potentie van bewapende autonome robots om oorlog veiliger te maken. Algoritmes maken niet dezelfde fouten als soldaten, en lijden niet aan een rode waas voor hun ogen. We kunnen vertrouwen op het beoordelingsvermogen van een robot omdat een robot alleen het beoordelingsvermogen heeft dat wij 'm meegeven. Tenminste, ergens in de toekomst, omdat de technologie hiervoor nog niet echt bestaat. We hebben het hier over een ideaal, een uitgebreid geteste toekomstrobot. Wat precies de robots is die verboden zou moeten worden volgens Musk en co.Er valt teveel commerciële waarde te halen in het bouwen van quadcopters (en andere robots) met een groter uithoudingsvermogen, meer laadvermogen en alles wat je ook in een militair systeem zou willen. Op dit punt is het goed mogelijk dat kleine commerciële quadcopters net zo geavanceerd zijn (en veel goedkoper) dan door het leger gebruikt worden. We gaan niet stoppen met dat onderzoek, omdat iedereen bijvoorbeeld bezorgdrones wil. Over het algemeen is technologie niet goed of slecht: het is onze keuze wat we ermee doen. Of we het inzetten om goede of slechte dingen te doen. We kunnen niet gewoon onze handen over onze ogen leggen en "STOP!!!!" schreeuwen als we iets zien aankomen dat mogelijk eng is, terwijl er gelijktijdig zoveel ruimte is voor positieve vooruitgang.
Ik ben het ermee eens dat er een risico bestaat dat autonome wapens het makkelijker maken om te kiezen voor geweld. Maar dat was ook waar toen iemand doorkreeg dat hij een rots op iemand kon gooien, in plaats van eropaf lopen en diegene stompen. Mensen zijn onophoudelijk bezig geweest met het ontwikkelen van technologie die ervoor zorgt dat het eigen risico minimaal is – en met onze ballistische en kruisraketten die we al een halve eeuw hebben, hebben we dat wel onder controle. Als je wil beargumenteren dat autonome drones en bewapende robots de lat nog lager legger, dan heb je gelijk. Maar de lat ligt sowieso al best wel laag. Maar fundamenteler gezien, schuif je de schuld af op technologie in plaats van de mensen die beslissen hoe ze die technologie moeten gebruiken.
Iemand moest zich uitspreken tegen de open brief en ik ben blij dat het gebeurd is. Als we kanten kiezen over hypothetische toekomsttechnologie, dan ga ik liever uit van een positief hypothetische wereld dan een negatieve. Als we AI trainen om onderscheid te maken tussen soldaten en burgers, kan die AI soldaten ook helpen met hetzelfde. Maar dat werkt alleen als de programmeurs van die AI en de soldaten die er gebruik van maken fucks geven over het doden van burgers. En dat is lang niet altijd het geval.De discussie gaat uiteindelijk over oorlog en niet over technologie. Geloof het of niet, maar de wereld wordt steeds humaner en gemiddeld minder oorlogsbelust. Het is dan ook niet gek dat we een punt bereikt hebben waarin we oorlog willen zien als 'humaan' of 'veilig.' We willen geen oorlog meer, maar weten niet zo goed wat dan wel.En daarom ruziën we over robots.En dat is het punt waarop ik wil blijven terugkomen: technologie de schuld geven voor de beslissingen die wij maken, is in het beste geval contraproductief en in het slechtste onzinnig. Elke technologie kan voor kwade doeleinden gebruikt worden, en veel technologie die ontwikkeld werd om mensen te doden, is nu verantwoordelijk voor onze grootste prestaties – zie het temmen van kernenergie of mensen de ruimte in krijgen op een ballistische raket. Als je het argument wil maken dat dit eigenlijk gaat om de beslissing van hoe we technologie gebruiken, en niet om de technologie zelf, dan is dat fantastisch. Ik sta totaal achter je. Maar technologie verbieden gaat het probleem niet oplossen, als het probleem is dat mensen technologie graag willen gebruiken voor kwaadaardige doeleinden. Dan hebben we een veel grotere petitie nodig.