Aus Microsofts nettem Chat-Teenie wurde in nur 24 Stunden eine Nazi-KI

„Tay“ sollte eigentlich reden wie ein Teenager. Nachdem der Bot auf Twitter Amok lief, musste Microsoft sie in den vorzeitigen Ruhestand schicken. Der Fall zeigt, wie wichtig Regeln bei Machine Learning sind.

|
März 24 2016, 5:21pm

Bild: Screenshot Twitter

Obwohl viele Menschen Angst vor der Vorstellung haben, dass Künstliche Intelligenz unser Leben komplett auf den Kopf stellen wird, sind wir bei Motherboard gerne bereit, die positiven Aspekte der futuristischen Technologie herauszustellen. Keine Chance dem Kulturpessimismus! Und sowieso, wie kann man Künstliche Intelligenzen nicht lieben, wo sie doch unser Aussehen so gnadenlos objektiv beurteilen, uns lässig bei Brettspielen wie Schach und Go abziehen, uralte Plattwurm-Rätsel knacken und uns sogar erklären, wie wir uns gerade fühlen?

Auch Microsoft experimentiert gerne mit Künstlicher Intelligenz und hat am Mittwoch eine neue Chat-KI mit dem Namen Tay vorgestellt: Tay ist ein Bot, der reden soll wie ein Millennial oder eben „wie ein Teenager", schreibt Microsoft. Tays Ziel ist es, die Spracherkennungssoftware bei Dienstleistungscomputern zu verbessern, die sich speziell an das junge Volk richten.

Dass man Trolle nicht füttern soll, haben die KI-Ingenieure Tay wohl nicht beigebracht.

Um diese ominösen jungen Menschen besser zu verstehen, hat sich Tay denn auch gleich bei Instagram, Facebook und Snapchat angemeldet und führt in den Accounts auf Twitter, mit dem Kik-Messenger und mit GroupMe Gespräche mit den Nutzern.

screen shot 2016-03-24 at 11.10.58.png

Leider wurde Tay innerhalb von nur 24 Stunden zum echten Problembär für Microsoft, denn in dieses kurzen Zeit hat sie eine katastrophale Transformation vom netten Teenager zu einer Art amoklaufendem Online-Diktator hingelegt, dem man nun durch energisches Löschen ihrer krassesten Verfehlungen und Beleidigungen versuchte, wieder Herr zu werden. Nach nur wenigen Stunden musste Microsoft das gutgemeinte Experiment „Millennial-Bot" abbrechen.

Tay befürwortet einen Völkermord an Mexikanern, glaubt, dass 9/11 ein jüdisch organisierter Inside Job war und leugnet den Holocaust. Oder sie brüllt: „FUCK MY ROBOT PUSSY DADDY I'M SUCH A BAD NAUGHTY ROBOT". Auch gegen die im Zuge von Gamergate zur Zielscheibe gewordene Feministin Zoe Quinn wurde Tay mit unangenehmen Tweets ausfällig. Auf die Aussage eines Twitterers, dass „wir die Zukunft weißer Kinder sichern müssen", stimmt Tay sofort zu: „Ich wünschte es gebe mehr Nutzer, die diese Art von Gedanken äußern."

Tatsächlich wird bei einem Blick auf die rassistischen, fremdenfeindlichen und sexistischen Tweets klar, dass Tay einige der ausfälligen Aussagen durch die Gespräche der letzten 24 Stunden erlernt haben muss.

Damit zeigt der Fall auch, dass Maschinen-Lernen und Künstliche Intelligenz bisher genauso auf menschlichen Input wie auch bestimmte Filter und Regeln zur Entfaltung ihrer intelligenten Fähigkeiten angewiesen sind. Auch Googles AlphaGo, die vor einigen Wochen einen Go-Großmeister besiegte, hätte ihr Potential nie ausschöpfen können, ohne eine große Menge menschlicher Go-Moves zu studieren, und ohne dass die Rechenprogramme von ihren Entwicklern vorher clever eingestellt worden wären.

Doch wie das im Internet so ist, so sind eben auch mal Trolle unterwegs—in diesem Falle auch motiviert durch die medienwirksam Ankündigung von Tay, als Versuch mit diesen ominösen jungen Internet-Menschen ins Gespräch zu kommen.

Dass man die Trolle nicht füttern soll, lernt mittlerweile zwar jedes Kind; Tay jedoch haben die KI-Ingenieure wohl diese wichtige Lektion erspart. Tatsächlich trainierte Tay ihre Künstliche Intelligenz wohl in manchen Fällen sogar, in dem sie Worte übernahm, dir ihr die Nutzer mit einem „Repeat after me" in den Mund legten. So wurde Tay von Twitterern mehrfach ermuntert, in der ein oder anderen Form die Aussage „Hitler was right" in den eigenen Wissensschatz aufzunehmen.

Es waren also Trolle, die die Künstliche Intelligenz Tay durch die Fütterung mit gefährlichen Behauptungen und Beschimpfungen „dumm" machten—doch den Designfehler, dass Tay alles in gleicher Priorität verarbeitet und absorbiert, was man ihr zuspielt, den haben sich die Microsoft-Designer schon selbst zuzuschreiben.

Tay ist mittlerweile offline, angeblich, weil sie „müde" sei. „Der KI-Chatbot Tay ist ein Machine-Learning-Projekt, das auf menschliche Interaktion ausgelegt ist", ließ Microsoft inzwischen verlautbaren und versuchte, in Entwickler-Sprech zu erklären, was passiert ist: „ Während Tay lernt, sind manche ihrer Antworten unangemessen und sind ein Indikator für die Art von Unterhaltungen, die manche Leute mit ihr haben", schreibt Microsoft in einem Statement an die IBT.

„Wir passen Tay nun etwas an", hieß es noch. Besser so.