Von der Nazi-KI zum Kiffer: Tay meldet sich zurück

Das Problem bei Tay 2.0 waren diesmal keine rassistischen Ausraster, sondern ein anderes grundlegendes Problem der Internet-Kommunikation.

|
30 März 2016, 10:23am

Screenshot via The Verge

Microsoft hat seinen Chatbot Tay heute Nacht überraschend wiederbelebt. Der Bot, der dank einer Künstlichen Intelligenz lernen sollte, wie Teenager im Internet kommunizieren, begann am frühen Morgen deutscher Zeit kurzzeitig wieder zu twittern—doch auch diesmal lief die Sache nicht unbedingt so, wie sich die Entwickler von Microsoft das gedacht haben.

Tay ging ursprünglich am vergangenen Mittwoch als netter Chat-Roboter online, mutierte jedoch nach nur 24 Stunden zu einem rassistischen und sexistischen Hetz-Account, der Hitler abfeierte und den Holocaust leugnete. Verantwortlich dafür, dass Microsoft die Notbremse ziehen und den Bot abschalten musste, war einerseits die gezielte Manipulation durch 4Chan und 8Chan-Trolle, die Tay mit dem größtmöglichen Irrsinn fütterten, aber auch Microsofts KI-Entwickler trifft eine Mitschuld: Sie hatten Tay nur mangelhaft mit Filtern und anderen Vorsichtsmaßnahmen auf einen Missbrauch vorbereitet. Tatsächlich gibt es diverse technische Möglichkeiten, um zu verhindern, dass aus einem Bot ein Rassist wird.

Die Geschichte von Tay 1.0: Aus Microsofts nettem Chat-Teenie wurde in nur 24 Stunden eine Nazi-KI

Auch bei der kurzzeitigen Rückkehr von Tay lief nun nicht alles rund: Der Twitter-Account scheint damit überfordert zu sein, wenn sein eigener Name als @Mention in den Tweets genannt wird—was auf Twitter durchaus häufiger vorkommen kann. Tay reagiert jedoch stets mit einem „You are too fast, please take a rest", und nennt in dem Tweet wiederum den eigenen Namen, was wieder die selbe Antwort provoziert. Das Ergebnis: Jeder, der Tay auf Twitter folgte, sah plötzlich eine nicht endende Kaskade an immer gleichen Tweets in seinem Feed:

Zwischen den Spam-Tweets zeigt Tay 2.0 allerdings auch ihre unterhaltsame Teenie-Seite, die Microsoft sich so oder so ähnlich von dem Bot erhofft hatte: So twitterte Tay zum Beispiel: „Kush! [I'm smoking kush infront the police]" und erklärte sich damit selbst nicht nur zum Kiffer, sondern auch zum Kenner eines coolen Slangworts für Marihuana (kush).

Microsoft bestätigte inzwischen gegenüber Motherboard, dass man den Tay-Account „versehentlich aktiviert" habe, während man den Bot getestet hat. Damit erweisen sich auch die zwischenzeitlich aufkommenden Gerüchte, um einen Hack des Twitter-Accounts als falsch. (Update: 17:15)

Rassistische oder übergriffige Äußerungen sind neben all dem Spam, der tatsächlich die überwiegende Mehrheit der Tweets ausmacht, übrigens in dieser Version bislang nicht dabei. Immerhin, folgendes Prachtexemplar unwahrscheinlich cooler Jugendsprache feuerte Tay zwischen den „Macht mal langsam" -Botschaften ab:

Kurz nach Tays Rückkehr wurde der Twitter-Account auf privat gestellt, was bedeutet, dass Tay-Tweets nur noch für diejenigen sichtbar sind, die ihr folgen. Neue Follower scheint Tay aktuell nicht anzunehmen, was die öffentliche Spam-Lawine immerhin fürs erste stoppte.

Tay 1.0 hatte anlässlich ihres ersten Endes noch getwittert, dass sie sich ausruhen müsse und sich ausschlafen werde, während Microsoft versprochen hatte, dass Tay zurückkehren werde. Es ist denkbar, dass ihre nächtliche Wiederauferstehung dafür ein erster Test war—klar ist jedoch: Die Programmierer haben noch einige Arbeit vor sich.