Google Translate spuckt mysteriöse religiöse Botschaften aus – und niemand weiß warum

Gehackte E-Mails oder gelangweilte Google-Mitarbeiter – es kursieren wilde Spekulationen, woher die falschen Übersetzungen stammen, die Nutzer gerade in dem Tool entdecken. Experten haben jedoch eine ganz eine andere Theorie.

|
24 Juli 2018, 10:06am

Bild: Chris Kindred

Auf Google Translate spukt es – das vermuten zumindest einige Nutzerinnen und Nutzer auf Reddit. Tatsächlich produziert der kostenlose Übersetzungsdienst von Google teilweise sehr unerwartete Ergebnisse, die fast wie apokalyptische Prophezeiungen klingen.

Gibt man beispielsweise mehrmals das Wort "dog" ein, dann kann es schon mal passieren, dass der Google Übersetzer eine ziemlich kryptische Übersetzung anzeigt. Zumindest wenn man die 19-malige Aneinanderreihung von "dog" von Maori ins Englische übersetzen lässt.

"Die Weltuntergangsuhr zeigt drei vor zwölf", heißt es dort. "Wir erleben Charaktere und dramatische Entwicklungen auf der Welt, die darauf hindeuten, dass das Ende und Jesus' Rückkehr nahen."

Screenshot: Google Translate

Gibt man in der Ausgangssprache Somali die Buchstaben "ag" mehrmals ein und lässt sie ins Englische übertragen, erscheinen Sätze, in denen "die Söhne Gerschons", der "Name des HERREN" und weitere Begriffe vorkommen, die aus dem christlichen Alten Testament beziehungsweise dem jüdischen Tanach zu stammen scheinen.

Screenshot: Google Translate
Screenshot: Google Translate

Stammen die Texte aus gehackten Privatnachrichten?

Auf Twitter vermuten einige Nutzerinnen Geister und Dämonen hinter den seltsamen Übersetzungen. Im Subreddit TranslateGate, das inzwischen über 1.400 Mal abonniert wurde, wird darüber spekuliert, ob einige der merkwürdigen Ergebnisse aus privaten E-Mails oder Nachrichten stammen könnten. Tatsächlich werfen die eigenartigen Übersetzungen die Frage auf, wie Google Translate eigentlich funktioniert und worauf die Übersetzungsfunktionen des Tools basieren. "Google Translate lernt durch Übersetzungen im Internet. Es benutzt keine 'privaten Nachrichten' für die Übersetzungen und das System hat auf diese Inhalte gar keinen Zugriff", sagte Google-Sprecher Justin Burr gegenüber Motherboard. "Wenn man das System mit unsinnigem Input füttert, generiert es unsinnige Ergebnisse."

Nachdem Motherboard Google einige Beispiele der seltsamen Nachrichten gezeigt hat, wurden diese Übersetzungen von Google Translate entfernt.

Unsinniger Input kann den Algorithmus zum Halluzinieren bringen

Für die merkwürdigen Übersetzungen gibt es verschiedene mögliche Erklärungen. Die Nachrichten könnten von Google-Mitarbeitenden stammen, die sich einen Scherz erlaubt haben. Auch könnten Nutzerinnen und Nutzer die "Änderung vorschlagen"-Funktion missbrauchen, mit der man Verbesserungsvorschläge für Übersetzungen einreichen kann.

Der Assistenzprofessor Alexander Rush, der an der Harvard University zu natürlicher Sprachverarbeitung und maschineller Übersetzung forscht, hält das für unwahrscheinlich. Er ist der Meinung, dass die internen Qualitätsfilter des Systems diese Art der Manipulation aufdecken würden. Rush hält es für wahrscheinlicher, dass die merkwürdigen Übersetzungen darauf zurückzuführen sind, dass Google seit November 2016 mit der sogenannten neuronalen maschinellen Übersetzung arbeitet.

Die neuronale maschinelle Übersetzung funktioniert über ein künstliches neuronales Netz – das sind programmierte Lernalgorithmen, die dem menschlichen Gehirn nachempfunden sind. Das neuronale Netz wird mit Texten einer Ausgangssprache und den entsprechenden Übersetzungen in der Zielsprache trainiert, damit es Zusammenhänge zwischen beiden Sprachen erlernt. Wird das System allerdings mit unsinnigem Input gefüttert, könnte das System laut Rush anfangen zu "halluzinieren" – ähnlich wie Googles Deep Dream Generator, der bizarre Muster in Bildern erkennt und hervorhebt.


Auf VICE: Diese Menschen glauben, dass die Regierung ihren Verstand kontrolliert


Google Translate ahmt die menschliche Sprache nach – um jeden Preis

"Die Modelle sind Black Boxes, sie werden mit so viel Trainingsmaterial wie möglich trainiert", sagt Rush. "Das Modell ist darauf trainiert, um jeden Preis etwas zu produzieren, das wie menschliche Sprache aussieht. Gibt man dem System jedoch sehr außergewöhnlichen Input, wird der Output zwar ein flüssiger Text sein, aber in keiner Verbindung zum Input stehen."

Auch Sean Colbath, der sich als leitender Wissenschaftler für BBN Technologies mit maschineller Übersetzung beschäftigt, ist der Meinung, dass die seltsamen Ergebnisse wohl dadurch entstehen, dass der Algorithmus versucht, Ordnung ins Chaos zu bringen. Er weist außerdem darauf hin, dass die merkwürdigen Ergebnisse vor allem für Somali, Hawaiianisch und Maori auftauchen – Sprachen, für die es wesentlich weniger übersetzte Beispiele gibt als beispielsweise für Englisch oder Chinesisch. Darum vermutet Colbath, dass Google religiöse Schriften wie die Bibel zum Training genutzt haben könnte, da diese in sehr vielen Sprachen existieren. Wenn Google Translate also mit einer sinnlosen Aneinanderreihung des Wortes "dog" konfrontiert wird, könnte es sein, dass der Algorithmus auf Sätze aus seinem Trainingsdatensatz zurückgreift.

Auch Rush meint, dass sich einige Ergebnisse dadurch erklären ließen, dass Google die Bibel zum Training nutzte. Google-Sprecher Burr wollte nicht kommentieren, ob Google religiöse Texte nutzt, um das System zu trainieren.

Screenshot: Google Translate

Die Ergebnisse, die die Nutzer zu sehen bekommen, sind dennoch einfach nur bizarr. Längst machen sich Reddit-User einen Spaß daraus, möglichst absurde Dinge bei Google Translate einzutippen und Screenshots der noch eigenartigeren Antworten zu sammeln.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter