FYI.

This story is over 5 years old.

Tech

Mit der Moral Machine entscheidest du, wen ein autonomes Auto töten soll

Welches Leben soll gerettet werden und auf wen könntest du verzichten? Wer das Spiel von MIT-Forschern spielt, lernt nicht nur etwas über die Abgründe der Moral, sondern auch über die Probleme der KI-Autos von morgen.
Bild: Screenshot Moral Machine

Die Zukunft verspricht uns so einiges, aber von den Abgründen der großen ethischen Fragen wird sie uns nicht retten. Das zeigt zum Beispiel das Trolley-Problem, eine klassische Zwickmühle der Philosophie. Jetzt, wo Ingenieure mit rauchenden Köpfen daran tüfteln, wie sie selbstfahrenden Autos so etwas wie Moral einprogrammieren können, wird das Dilemma wieder brandaktuell: Im Kern geht es darum, wie eine Künstliche Intelligenz Notfall-Entscheidungen für den Fahrer treffen soll. Wer soll bei einem unvermeidlichen Aufprall in allerletzter Sekunde gerettet werden: Immer der Fahrer oder manchmal auch andere Leben?

Anzeige

Folge Motherboard auf Facebook, Instagram und Snapchat

Um zu verdeutlichen, wie schwierig und differenziert dieses Problem sein kann, haben Forscher am MIT Media Lab ein unangenehmes Spiel gebaut, das dich selbst in die aussichtslose Lage der Entwickler versetzt: Die Moral Machine zwingt dich dazu, Menschen zu überfahren. Natürlich nur theoretische Menschen. Klingt morbide? Ist es auch. So wie das Leben!, würden Philosophen jetzt vergnügt einwerfen.

In dem Spiel gibt es 13 Szenarien—und jedes davon bringt dich ein bisschen mehr zum Verzweifeln. Üble, unangenehme Abgründe tun sich durch gemeine Extra-Faktoren auf: Wessen Leben ist mehr wert, das einer Siebenjährigen oder das einer Rentnerin? Ein Kind retten, das bei Rot über die Straße rennt, oder fünf Obdachlose, die brav bei grün gehen?

Hast du gerade noch ziemlich überzeugt entschieden, dass das Baby und die Ärzte überleben sollen, werden im nächsten Schritt deine vorherigen Entscheidungen gegeneinander ausgespielt—ein alter Trick der Philosophie, um den Tester zu zwingen, wirklich alle möglichen Konsequenzen der eigenen Ethik abzuwägen und zu reflektieren, auf welcher Basis wir eigentlich unsere Urteile treffen.

Die Auswertung des Spiels wirft ein unbarmherziges Licht darauf, ob du zum Beispiel implizit Menschen übervorteilst, die bereits im Auto sitzen oder lieber unschuldige Fußgänger rettest. (Was möglicherweise damit zusammenhängt, ob du eher Fußgänger oder Autofahrer bist.) So bringt das Spiel der MIT-Forscher nicht nur die komplizierte Algorithmus-Programmierung bei einem selbstfahrenden Auto auf den Punkt—sondern ermöglicht dir stark vereinfacht auch eine nüchterne Analyse deiner moralischen Überzeugungen und ethischen Prinzipien.

Anzeige

Bild: Screenshot Moral Machine

Meine klingen übrigens nach einem ausgewachsenen psychopathischen Desaster: Mir sind Tiere egal, ich bin ein schrecklicher Lookist, der unfitte und alte Menschen bereitwillig opfert und dann auch noch gesetzeslos: Mir ist es eher wurscht, ob jemand bei Rot über die Ampel gegangen ist. Dafür bin ich recht fair (man könnte auch sagen: inkonsequent), was Geschlechter angeht und versuche immer, so viele Leben wie möglich zu retten.

Natürlich sind solche Gedankenspiele grobe Vereinfachungen (was schon damit anfängt, dass nicht jeder Fahrer bei jedem Airbag-Aufprall so schwere Verletzungen davontragen würde wie ein ungeschützter Fußgänger, über den eine Tonne Metall brettert)—trotzdem lohnt es sich, um über die am wenigsten schlechte Option zumindest mal theoretisch nachzudenken. Denn die Notwendigkeit bleibt: herauszufinden, was wir in das Auto der Zukunft für den absoluten Notfall einprogrammieren sollen. Sich Gedanken über die Fallstricke von unperfekten Situationen zu machen, ist vermutlich moralisch besser, als das Problem zu ignorieren.

Ein Kind retten, das bei Rot über die Straße rennt, oder fünf Obdachlose, die brav bei grün gehen?

Entwickler selbstfahrender Autos würden vielleicht protestieren: Manche Ingenieure sind nämlich fest davon überzeugt, dass Autos, die überhaupt in so eine Situation kommen, schon einem massiven Systemfehler unterliegen. Das Ziel der Künstlichen Intelligenzen sollte sein, sie eben so zu designen, dass sie derlei Situationen so oft wie möglich antizipieren und durch Ausweich- und Bremsmanöver vermeiden. Dass das nicht immer klappt, zeigen die ersten Toten trotz eingeschaltetem Autopiloten in Teslas.

Wer ist verantwortlich für den ersten Toten in einem Tesla?

Doch man könnte argumentieren, auch die KI in einem selbstfahrenden Auto kann keine perfekte Entscheidungen treffen—sie muss nur ein bisschen besser als ein Mensch sein, der in einem Sekundenbruchteil unter Schock wohl meistens den Lenker irgendwohin herumreißt und sich im Zweifel ein Leben lang dafür Vorwürfe macht. Letztlich sind autonome Autos schon jetzt um einiges besser in Sachen Wahrnehmung und Entscheidungsfindung als ihre menschlichen Kollegen. Bedeutet: Die Wahrscheinlichkeit, sich überhaupt in den Abgründen eines solchen Trolley-Problems wiederzufinden, sinkt in Zukunft gewaltig.

Ob die Ergebnisse aller User in die Forschung oder Codierung der Algorithmen für selbstfahrende Autos fließen, ist nicht bekannt. Doch wäre ich ein Entwickler und müsste mir ständig über derartige Dilemma den Kopf zerbrechen, ich würde ab und an ein bisschen Schwarmintelligenz bei so universellen Entscheidungen gebrauchen können—vor allem, da sich alle falsch anfühlen.