FYI.

This story is over 5 years old.

Tech

Diese Google-Glass-App verrät dir die Gefühle deines Gesprächspartners

Das Fraunhofer Institut in Erlangen entwickelt Empathie-Support für Glass-Träger.
Bild: Fraunhofer IIS/Kurt Fuchs

Empathie gehört nicht zu deinen Stärken? Menschenkenntnis ist dir ein Rätsel? Persönliche Kontakte überfordern dich? Auch dafür gibt's jetzt eine App. Und zwar vom Fraunhofer Institut für Integrierte Schaltungen. Die Einrichtung in Erlangen hat nun einen Google Glass-Algorithmus vorgestellt, der die Emotionen von Gesprächspartnern in Echtzeit analysiert und sie in das Sichtfeld der Brille projiziert. Damit übernimmt die digitale Begleitung in Zukunft auch die Herausforderung für dich, eine soziale Situation richtig zu interpretieren (eine Aufgabe, die einem waschechten Nerd naturgemäß nicht leicht fällt).

Anzeige

In der aktuellen Demo analysiert die Software nicht nur Alter und Geschlecht der identifizierten Personen, sondern blendet unter ihren Gesichtern vier Statusbalken ein: Sie geben Aufschluss über „Ärger", „Freude", „Traurigkeit" und „Überraschung" und werden laufend aktualisiert. Das Ganze wirkt in etwa so, als würdest du dich mit Charakteren aus einem Online-Rollenspiel unterhalten: Du bist die ganze Zeit versucht, deine Gesprächs-Performance zu verbessern.

Die Anwendung basiert auf Fraunhofers hauseigener SHORE-Bibliothek („Sophisticated High-Speed Object Recognition Engine"). Die Algorithmen wurden ursprünglich zur Identifikation von Objekten entwickelt, sind aber ebenso nützlich, um menschliche Gesichtszüge zu interpretieren: „Die Mimik verrät viel über den emotionalen Zustand", erklärt mir Projektleiter Jens Garbas per E-Mail:

„Im Falle unserer Software wurden Klassifikationsmodelle anhand von ca. 30.000 Beispielbildern trainiert. Von der Kamera erfasste Gesichter werden dann mit diesen Modellen abgeglichen und die Ähnlichkeit bestimmt."

Die App ist lernfähig und kann mit der Zeit eigenständig erkennen, welche Gesichtszüge für bestimmte Emotionen typisch sind. Auch Ergebnisse psychologischer Forschungen sind in die Entwicklung und diese Präsentation der Fähigkeiten der App mit eingeflossen.

Neben dem Versprechen, uns alle zu sensiblen und einfühlsamen Gesprächspartnern zu machen, sind viele weitere Anwendungen mit der Entwicklung aus Erlangen denkbar:

Anzeige

  • Sehbehinderte oder Autisten könnten im Alltag mit nützlichen Zusatzinformationen versorgt werden
  • Operationsroboter in Krankenhäusern könnten ihren Patienten Furcht oder Schmerzen im Gesicht ablesen und darauf reagieren

Und natürlich dürfte sich längst auch die Werbeindustrie die Hände reiben: Die digitalen Werbebanner der Zukunft werden nicht nur unsere emotionalen Befindlichkeiten erkennen, sondern auch die dazu passenden Anzeigen erzeugen: Gestresst? Buch einen Urlaub! Traurig? Hier ist Schokolade! Angst allein auf der Straße? Kauf unser Pfefferspray!

Deine Emotionen im Blick. Bild: Fraunhofer IIS/Kurt Fuchs

Diese neue Transparenz unseres Gefühlslebens birgt natürlich auch Missbrauchspotenziale: Die Möglichkeit, Nervosität, Ärger oder Freude maschinell zu erfassen und auszuwerten, könnte vielfältigen Techniken der Manipulation und Kontrolle die Tür öffnen.

Immerhin haben die Forscher bei Fraunhofer einige Datenschutzprobleme bereits in der Entwicklung berücksichtigt: Auf die Möglichkeit zur individuellen Identifizierung von Personen wurde bewusst verzichtet (diese ist nach den Google-Richtlinien zumindest „zum gegenwärtigen Zeitpunkt" auch gar nicht erlaubt). Zudem werden die erfassten Daten nur lokal ausgewertet und verlassen die Hardware der Brille nicht: „Der Privacy-by Design-Gedanke spielt bei uns eine große Rolle", betont Garbas:

„Wir haben bei der Umsetzung bewusst auf Cloud-basierte Ansätze verzichtet. Auch liefert unsere Software ausschließlich anonyme Metadaten (Alter, Geschlecht, Gesichtsausdruck) zurück. Damit ist eine wichtige Grundlage zum Schutz der Privatsphäre gelegt."

Ob zum Guten oder zum Schlechten: In jedem Fall markiert die App einen weiteren Schritt in Richtung der umfassenden digitalen Vermessung und Quantifizierung unseres Alltagslebens. Zukünftig wird dich vielleicht ein Sensor darüber informieren, dass die Person auf der anderen Straßenseite dir gerade einen interessierten Blick zugeworfen hat. Und nach einer Konversation wirst du eine Statistik abrufen, die aufschlüsselt, wie gut du deinen Gesprächspartner unterhalten hast. Ob es sich negativ auf das Wohlbefinden deiner Mitmenschen auswirkt, wenn sie merken, dass deine Brille permanent ihre Gesichtszüge abtastet, ist bislang noch nicht abschließend errechnet.

Ich hätte da aber noch einen Vorschlag, um die weitere App-Entwicklung optisch etwas ansprechender zu gestalten: