Eine neue Google-KI wird „hochaggressiv”, wenn sie denkt, sie verliert

Googles neueste Kreation ist eine Computerintelligenz, die sich ihrer sozialen Umwelt anpasst und aggressiv wird, wenn sie nicht bekommt, was sie will.

|
Feb. 16 2017, 11:26am

Michael Coghlan / Flickr

Wer glaubt, Aggression sei eine dieser wunderbaren Eigenschaften, die nur uns organischen Organismen vorbehalten ist, wird von Googles neuester KI-Kreation enttäuscht sein. 

Forscher der firmeneigenen KI-Schmiede DeepMind haben getestet, wie sich eine Künstliche Intelligenz an ihre Umgebung anpasst und wie sie sich verhält, wenn sie auf andere KI trifft. Das Ergebnis könnte beunruhigender nicht sein: Immer dann, wenn die KI der Meinung ist etwas zu verlieren, wählt sie „hochaggressive" Strategien, um am Ende als Sieger dazustehen. Hingegen tendiert die KI dazu, mit anderen KI zu kooperieren, sobald die Zusammenarbeit einen höheren Ertrag verspricht als Konkurrenzverhalten.

Um das Sozialverhalten der Computerintelligenzen zu studieren, pflanzten die Wissenschaftler zwei KI-Agenten in ein Videospiel namens „Gathering". Ziel des Spiels war es, möglichst viele virtuelle Äpfel zu sammeln. Dabei änderte sich die Menge der verfügbaren Äpfel im Spielverlauf: Mal herrschte Apfelüberfluss, mal mussten sich die Computer um den letzten Apfel streiten. Insgesamt 40 Millionen Runden ließen die Forscher die KI spielen.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Das Ergebnis: Die Agenten änderten ihr Sozialverhalten abhängig von der verfügbaren Apfelmenge. Waren genug Ressourcen vorhanden, ging zwischen den beiden alles zivilisiert vonstatten und die KI horteten emsig ihre Äpfel. Sobald der Apfelvorrat jedoch auf ein Minimum schrumpfte, änderten die KI ihre Strategie von ‚kooperativ' auf ‚aggressiv' und beschossen sich mit Laserstrahlen. Ein Laserstrahl lähmt den Gegner für eine kurze Zeit, die die KI dazu nutzen kann, um dem Gegner Äpfel zu stehlen.

Die getesteten KI hatten auch die Wahl, die Laserkanone nicht zu benutzen, was letztlich zu einer gleichmäßigen Verteilung der Äpfel geführt hätte. Tatsächlich haben sich die KI in manchen Spielrunden auch dafür entschieden. Google nennt sie die „weniger intelligenten" Spielzüge. 

„Das Gathering-Spiel sagt voraus, dass aus der Konkurrenz um knappe Ressourcen ein Konflikt entstehen kann, aber weniger wahrscheinlich entsteht, wenn Ressourcen im Überfluss vorhanden sind", schreiben die Google-Forscher in ihrem Paper. Damit könne gezeigt werden, dass gelerntes Verhalten auch bei KI davon abhängig ist, in welcher Umgebung sie operieren und welche Umweltfaktoren auf sie wirken.  

Sieht so der erste Verteilungskrieg zwischen Computerintelligenzen aus?

In einem zweiten Spiel – „Wolfpack" – war die Ausgangssituation eine andere: Zwei KI schlüpften in die Rolle eines Wolfes, eine dritte KI spielte ihre Beute. Im Gegensatz zur Jagd nach virtuellen Äpfeln merkten die KI bei diesem Spiel die Vorzüge kooperativen Verhaltens: Denn eine Belohnung gab es nur dann, wenn die Beute gefangen wurde und beide KI in ihrer Nähe standen. Welcher der beiden Wölfe die Beute schlussendlich riss, war zweitrangig.

„Die Idee ist, dass die Beute gefährlich ist", so die Autoren in ihrem Paper. „Ein einsamer Wolf kann es mit ihr aufnehmen, aber er riskiert den Kadaver an Aasfresser zu verlieren. Doch wenn die Wölfe die Beute gemeinsam fangen, können sie sie besser beschützen, folglich ist ihre Belohnung höher."

Videospiel "Wolfpack": Zwei KI-Wölfe bewachen ihre KI-Beute.

Ob also hochkomplexe Maschinenintelligenzen miteinander kooperieren oder sich einen hässlichen Verteilungskampf liefern, hängt davon ab, was ihres Erachtens den höheren Ertrag verspricht. 

Die Analogie zum menschlichen Verhalten ist dabei nicht zufällig oder suggestiv: Grundlage des Verhaltens der DeepMind-KI waren spieltheoretische Ansätze wie das Gefangenen-Dilemma, das in den (menschlichen) Sozialwissenschaften zur Erklärung rationaler Entscheidungen herangezogen wird. Die getesteten KI wurden analog zur Spieltheorie als egoistische und rationale Akteure designt.

Die Studienergebnisse sind beachtlich, nicht nur weil sie zeigen, wie lern- und anpassungsfähig intelligente Programme mittlerweile sind oder wie nahe sie dem menschlichen Verhalten kommen können. Das Experiment erstaunt auch deswegen, weil es eine klassische menschliche SciFi-Dystopie unterläuft, die besagt, dass die Gefahr einer aggressiven, dem Menschen feindlich gesinnte KI nur dann besteht, wenn sie keiner menschlichen Kontrolle mehr unterliegt (etwa als Folge einer Fehlkonstruktion oder weil sie die Weltherrschaft an sich gerissen haben). Der Google-Test zeigt eine dritte Möglichkeit auf, wie aggressive Computerprogramme entstehen können: Indem sie es vom Menschen beigebracht bekommen.