FYI.

This story is over 5 years old.

Tech

Diese KI ist so gut geworden, dass sie reihenweise Doom-Spieler töten kann

Zwei Studenten haben eine gefährlich gute Künstliche Intelligenz entwickelt und sie auf den passenden Namen Arnold getauft. Dafür kriegen sie jetzt Ärger von Technik-Ethikern, die vor den Folgen einer Killer-KI warnen.

Titelbild: id Software Bethesda | Guillaume Lample & Devendra Singh Chaplot; Carnegie Mellon University Egal ob in Call of Duty, Battlefield oder auch Titanfall, eigentlich können die Computer-Gegenspieler des Menschen selbst in aktuellen First- und Third-Person-Shootern nur gewinnen, weil sie ständig betrügen. Sie sehen durch Wände, wechseln Waffen ohne jede Verzögerung und treffen dank idealen Schussbahnen selbst durch wenige Zentimeter breite Türspalte. Dazulernen und denken können sie nicht.

Anzeige

Die Studenten Guillaume Lample und Devendra Singh Chaplot von der Carnegie Mellon University haben nun hingegen eine Künstliche Intelligenz namens Arnold erschaffen, die inzwischen beängstigend gut geworden ist: Die Studenten haben Arnold mit exakt den gleichen Voraussetzungen wie menschliche Spieler in den Shooter Doom geschickt, doch inzwischen ist der künstliche Verstand im Deathmatch-Modus sowohl den Bots als auch menschlichen Kontrahenten überlegen.

Auch wenn die Programmierleistung der beiden durchaus eindrucksvoll ist, ernten die Computerwissenschaftler für ihre Entwicklung nun auch Kritik. Denn die US-Studenten haben die KI gezielt darauf trainiert, möglichst effizient zu töten.

Hinter der Entwicklung von Arnold steht eine große Herausforderung. Bei klassischen Brettspielen wie Schach und Go ist das Spielfeld stets voll im Blick. Künstliche Intelligenzen können hier ihre Züge vorausplanen und Muster analysieren—und so selbst Großmeister bezwingen. Bei First-Person-Shootern ist die Sicht in die Welt hingegen begrenzt und das Tun der Kontrahenten auch mal irrational. Das fordert, wie Lample und Chaplot im zugehörigen Paper schreiben, „ein weites Feld an Fähigkeiten, wie das Navigieren auf der Karte, das Sammeln von Gegenständen und erkennen und bekämpfen der Feinde." Für ihr Experiment bauten sie auf Googles Maschine-Learning-Technologie DeepMind auf, die unter anderem schon mehrere Atari-Spiele gemeistert hat. Dabei trennten die Entwickler den Lernprozess für Arnold in zwei Aufgaben. Nämlich in das Feld der Kampfhandlungen und in die Herausforderung der Bewegung in der 3D-Welt.

Anzeige

Lernen, um zu töten

Über mehrere Runden stand die Künstliche Intelligenz nur in der Welt, drehte sich und lernte feindliche Doom Marines zu identifizieren und auf diese zu schießen. In der nächsten Phase rannte sie durch die Karten des Shooters, sammelte Waffen, Rüstung und Munition.

Wie die Studenten beschreiben, setzten sie dabei auf reinforcement learning—sich bestärkendes Lernen. Hier soll die KI nicht von menschlichen Spielern abschauen oder anhand von Beispieltaktiken lernen, sondern darf selbst Ursachen, Folgen und die Vor- und Nachteile von Handlungen ermitteln. Für jeden Abschuss und jede gesammelte Waffe erfährt sie dann Belohnungsimpulse. Bei einem frühen Versuch feuerte Arnold etwa mit der Pistole gerade in Gegend, in der Hoffnung, ein Gegner würde in seine Schusslinie laufen. Eine Taktik, die verworfen werden musste.

Dadurch dass Arnold wieder und wieder gegen die Doom-Bots und menschliche Gegner antrat, lernte er dazu und wurde stetig besser. Mittlerweile ist die KI, so zeigt ein Beispielvideo, unheimlich schnell, effektiv, zielgenau und mit Super-Shotgun und BFG kaum noch zu schlagen. Und all das, ohne zu mogeln.

„Wir zeigen, dass die präsentierte Architektur sowohl die eingebauten KI-Agenten als auch menschlichen Spieler in Deathmatch-Szenarien substanziell ausspielt", umschreiben Lample und Chaplot das für menschliche Spieler wenig schmeichelhafte Ergebnis. Heißt im Klartext: Die Künstliche Intelligenz ist letztlich nichts weniger als eine verdammt effiziente Tötungsmaschine—wenn auch nur in einem Videospiel. Doch dabei muss es ja nicht bleiben! Daher beschwören nun Kritiker dunkle Visionen von Terminator-artigen Killerrobotern herauf.

Anzeige

„Die Gefahr ist hier nicht, das eine KI irgendwelche Figuren in einem 23 Jahre alten First-Person-Shooter tötet", sorgt sich Scott Eric Kaufman bei Salon. „Sondern, dass es sich in der Welt bewegt wie ein Mensch. Das könnte einfach portiert werden." Geplant ist das nicht.

Aber tatsächlich liegt die Idee nicht fern, Arnold in ein Roboter-Gehäuse wie Foster-Millers SWORD oder Boston Dynamics Atlas zu stecken, ein Maschinengewehr aufzumontieren und der Künstliche Intelligenz beizubringen, statt Pixelgestalten reale Menschen ins Visier zu nehmen. Der Name der KI wäre dann gerechtfertigt und Roboter wie T-800 oder die elektronischen Wachmänner im Film Chappie würden Wirklichkeit werden.

In dystopischen Filmen wie Neill Nlomkamps Chappie sind KI-gesteuerte Wach- und Polizeibeamte bereits Realität. Dabei verhalten sie sich nicht sonderlich ethisch, sondern verletzten und töten Menschen. | Bild: Columbia Pictures

Das kleine Ego-Shooter-KI-Experiment provoziert damit unerwartet schwerwiegende Fragen. Nicht nur danach, was Künstliche Intelligenzen dürfen sollten und was nicht. Sondern ebenso, welchen ethischen Normen sich ihre Entwickler verpflichtet fühlen und welchen Weitblick sie beweisen müssten.

„Wir haben es nur trainiert, ein Spiel zu spielen", erklärt Devendra Singh Chaplot etwa seine Sicht auf die Kontroverse. Allerdings macht es für eine KI keinen großen Unterschied, ob sie sich in einer realen oder virtuellen Umgebung bewegt—und was oder wen sie dort abknallt.

Längst haben auch die großen Tech-Firmen der Welt die Dringlichkeit erkannt, die Entwicklung von Künstlicher Intelligenz in ethische Bahnen zu lenken und dringend notwendige Debatten über die Moral von KI zu führen: Kooperationen wie von Google, IBM, Facebook, Microsoft und Amazon, die die

Partnership on AI

gegründet haben, oder Tesla-Gründer Elon Musks

OpenAI

könnten da ein erster richtiger und wichtiger Schritt sein. Denn die versprechen, sich gegen die „Entwicklung und Nutzung von KI-Technologien, die internationale Konventionen und Menschenrechte verletzten" zu stellen. Das ist auch nötig. Denn einem System wie Arnold eine echte Schrotflinte in die Hand zu drücken, wäre sicher ein mächtiger Fehler.