FYI.

This story is over 5 years old.

Tech

Wie kann es sein, dass eine KI weiße Menschen schöner findet?

Im ersten internationalen Beauty Contest, dessen Gewinner von Algorithmen bestimmt wurden, waren fast nur Hellhäutige unter den Siegern. Zwar kennen Computer keinen Rassismus, die zugrundeliegenden Datenbanken aber werden von Menschen gefüttert.
Bild: flickr | Veronica Jauriqui | CC BY-SA 2.0

Schönheitswettbewerbe sind immer auch Zeichen ihrer Zeit. Kaum etwas sagt mehr aus über die Normen und Werte, an denen wir unsere Mitmenschen messen, als welche Eigenschaften wir als schön oder hässlich erachten. So dauerte es beispielsweise bis zum Jahr 1983, dass endlich auch einmal eine Afroamerikanerin im Miss America Contest zur schönsten Frau der Vereinigten Staaten gekürt wurde.

Was passiert also, wenn wir eine menschliche Jury durch Algorithmen oder eine Künstliche Intelligenz ersetzen? Die mathematischen, maschinellen Formeln müssten in der Theorie ja perfekt dafür geeignet sein, um eine Juryentscheidung vorurteilsfrei und objektiv zu erledigen. Wenigstens für einen Roboter dürfte doch eigentlich die Hautfarbe bei der Bewertung keine Rolle spielen: Müssten Maschinen nicht eigentlich universelle Attraktivitätsmerkmale erkennen können und nach objektiven Kriterien beurteilen?

Anzeige

Genau das sollte ein Initiative von Youth Laboratories aus Russland und Hong Kong zeigen. Unter dem Titel Beauty.ai veranstaltete sie in Zusammenarbeit mit Microsoft und Nvidia einen Schönheitswettbewerb, der sich schon im Namen auf die Autorität Künstlicher Intelligenz (englisch AI abgekürzt) beruft. 600.000 Kandidaten aus aller Welt sendeten ihre Selfies ein. Die Agentur setzte dann drei Algorithmensätze darauf an, die Gesichtssymmetrie zu bewerten und abzuschätzen, ob die Kandidaten für ihr Alter jung oder alt aussehen.

Doch die im August veröffentlichten Ergebnisse sorgten für Empörung: von den 44 Gewinnern sind fast alle weiß, sechs sehen asiatisch aus und nur ein Finalist mit erkennbar dunklerer Hautfarbe ist dabei.

Wie konnte das nur passieren?

Bild: Beauty.ai

Die Intelligenz aller drei Algorithmen basiert auf den maschinellen Lernprinzipien des „Deep Learning". Die Algorithmen lernen also aus bestehenden Fotos und deren Bildunterschriften. Darauf aufbauend kann der Computer mit einiger Sicherheit bestimmen, was er vor sich hat. Im Fall von Beauty.ai lernten alle Algorithmen auf der Grundlage von Open Source Machine Learning Datenbanken, die von den Wissenschaftlern gemeinsam genutzt wurden.

Deep Learning ist ein besonders leistungsstarkes KI-Verfahren und wird auch von großen Unternehmen wie Alphabet und Facebook genutzt und entwickelt. Trotzdem zeigten verschiedene Fälle in der Vergangenheit, dass auch KI-Systeme immer wieder sehr menschliche Vorurteile reproduzieren. So wurde etwa kürzlich festgestellt, dass ein Sprachverarbeitungsalgorithmus typisch weiße Namen als „angenehmer" bewertete als typisch afroamerikanische Namen. Seine Intelligenz beruhte nämlich auf in der Vergangenheit durchgeführten, psychologischen Experimenten.

Anzeige

„Es wurde klar, dass die Hautfarbe bei maschinellem Sehen doch eine Rolle spielt"

Das grundlegende Problem ist der Mangel an Vielfalt bei den Fotos und Bildtexten in den Datenbanken, auf denen die künstliche Intelligenz aufbaut. Hier sind die Menschen gefragt, die die Datenbanken füttern.

„Wir hatten das Problem zum Beispiel bei unserer Datenbank für die Einschätzung von Falten", sagte der Chief Technology Office von Youth Laboratories Konstantin Kiselev in einem Interview mit Motherboard. „In unserer Datenbank waren viel mehr Weiße als, sagen wir mal, Inder. Das kann unseren Algorithmus schon in eine unerwünschte Richtung gelenkt haben."

„Es wurde klar, dass die Hautfarbe bei maschinellem Sehen doch eine Rolle spielt", erklärte Alex Zhavoronkov, Chief Science Officer von Beauty.ai in einer E-Mail an Motherboard. „Und für einige Bevölkerungsgruppen gibt es einfach nicht genug Daten und Beispiele, um die neuronalen Netzwerke im Deep Learning zu trainieren."

Ein weiteres Problem für Beauty.ai war, dass die große Mehrheit der Teilnehmer an dem Schönheitswettbewerb, nämlich 75 Prozent, hellhäutige Europäer waren. Sieben Prozent kamen aus Indien und nur ein Prozent aus einem afrikanischen Land. Damit waren zwar 40.000 Inder und 9.000 Menschen vom afrikanischen Kontinent in der Datenbank, ihre Schönheit konnte der Computer aber nicht mit den ihm beigebrachten Idealen in Verbindung bringen.

Anzeige

„Es kann auch sein, dass unser Wettbewerb in diesen Regionen nicht bekannt genug war", sagte Kiselev. „Das liegt sicher an der fehlenden Werbung. Wir wollen nun an der größeren Bekanntheit unserer Initiative in nichteuropäischen Ländern arbeiten."

Im Oktober findet ein weiterer Schönheitswettbewerb von Beauty.ai statt. Dann wollen wir mal sehen, ob das Versprechen, Kandidaten aus außereuropäischen Ländern anzusprechen, eingelöst werden kann.

Mit dem Chat-Roboter Tay hat auch Microsoft bereits erleben müssen, wie ein Algorithmus zum Rassisten wurde.

Viel kniffliger ist jedoch die Frage, wie man die Entstehung einseitiger und tendenziöser Datenbanken verhindern kann. Wir kennen das Problem noch aus der analogen Fotografie, die auch schon ein Problem mit dunkler Haut hatte. Bis dafür gesorgt wurde, dass jede Hautfarbe gut belichtet fotografiert werden kann, lag eine gewisse rassistische Verzerrung also in der Natur der Aufnahmen, egal wie nicht-rassistisch die Person hinter der Kamera auch sein mochte. In diesem Zusammenhang merkte auch Zhavoronkov gegenüber Motherboard an, dass die Algorithmen von Beauty.ai tatsächlich manchmal die Bilder von dunkelhäutigen Menschen komplett aussortierten, weil die Ausleuchtung zu schwach war.

Der eigentliche Grund für die rassistische Juryentscheidung ist aber in den Datenbanken zu finden. Beim Deep Learning benutzen verschiedene Wissenschaftler dieselben Datenbanken und Standard-Frameworks, um ihre Rechner zu füttern. Dabei wird meist kaum etwas verändert, sodass sich Vorurteile und Tendenzen über die Algorithmen hinweg reproduzieren. Da helfen die sicherlich guten Absichten der Wissenschaftler auch nicht weiter.

Anzeige

Wirklich ändern kann man das alles nur, wenn man das System selbst verändert—in diesem Fall die Datenbanken, die die Grundlage für das maschinelle Lernen bieten.

„Wir brauchen eine große, zentrale Sammlung von guten Fotos von Gesichtern und Personen, mit den entsprechenden Begleittexten, in denen Menschen aller Hautfarben gleichermaßen vertreten sind. Diese Sammlung sollte öffentlich verfügbar sein. So könnten auch Start-ups vermeiden, dass rassistische Tendenzen reproduziert werden", schlug Zhavoronkov vor.

„Wenn sich nämlich ein paar Programmierer zusammenfinden und eine App entwickeln, die mit maschinellem Sehen zu tun hat, kümmern die sich normalerweise nicht um eventuelle rassistische Verzerrungen, die wollen einfach schnell an den Markt", erklärte Zhavoronkov.

Folge Motherboard auf

Facebook

,

Instagram

und

Snapchat

.