FYI.

This story is over 5 years old.

Tech

Zou jij een zelfrijdende auto kopen die jou bewust kan vermoorden?

Een nieuw onderzoek wijst uit dat mensen te hypocriet zijn om moreel verantwoorde zelfrijdende auto's te willen.

Als ik het morele kompas van mijn zelfrijdende auto zelf kon instellen dan zou deze liever mannen, dieren, bejaarden en dikke mensen doodrijden. Blijkbaar. Dat is namelijk wat de Moral Machine van MIT Media me vertelt aan de hand van de morele afwegingen die ik maakte over wie er doodgereden zou worden als een zelfrijdende auto zou moeten kiezen.

Het klinkt als een dom scifi-scenario, maar wanneer we zelfrijdende auto's krijgen, dan moeten deze op de een of andere manier ook geprogrammeerd worden om ethische beslissingen te maken: rijdt de auto een kind plotseling overstekend kind dood of stuurt 'ie de auto tegen een betonnen blok aan waardoor de bestuurder zeker overlijdt? Wat zou jij doen?

Advertentie

Als je een enigszins normaal mens bent, dan roep je nu 'Het betonnen blok natuurlijk!' Dat is namelijk het moreel verantwoorde antwoord en dus ook wat de meeste mensen zouden kiezen als juiste beslissing voor de auto: dan maar zelf dood. Maar achter die morele heldhaftigheid blijkt een hoop schijnheiligheid te hangen.

Een nieuw onderzoek dat onlangs in Science gepubliceerd is, concludeert namelijk dat mensen helemaal niet in een auto willen rijden die die keuze zou maken – ook al gaven ze massaal aan dat het juiste keuze zou zijn. De meeste mensen zouden graag willen dat anderen die auto's zouden kopen, maar zelf zouden ze in auto's willen rijden die de passagiers koste wat het kost beschermen.

Ondanks het feit dat een auto zeer zelden in zo'n keuzesituatie terecht komt, zou dit een groot probleem kunnen worden voor de inzet van zelfrijdende auto's. De auteurs beargumenteren dat als volgt: het zou normaal zijn als het morele kompas van zelfrijdende auto's gereguleerd zou zijn door een overheid om de hoeveelheid verkeersdoden te minimaliseren, maar een groot deel van de ondervraagden gaven aan dat ze zo'n gereguleerde auto minder snel zouden kopen. Ze zouden gewoon door blijven rijden in hun zelfbestuurde auto's die wereldwijd voor 1.25 miljoen verkeersdoden per jaar zorgen, ondanks het feit dat er een optie bestaat om dat getal terug te brengen.

"Door het verkeer veiliger proberen te maken door middel van regulatie, eindig je met onveiliger verkeer, omdat mensen niet meer kiezen voor zelfrijdende auto's," zegt auteur van het onderzoek Azim Sharrif tegen de Guardian. Hij maakte met zijn mede-auteurs Iyad Rahwan en Jean-Francois Bonnefon ook de Moral Machine, een site waar je zelf kan testen hoe je moreel gezien scoort ten opzichte van anderen door keuzes te maken voor een zelfrijdende auto.

De resultaten van het onderzoek leggen een extra probleem bloot in de überhaupt al moeilijke kwestie van hoe zelfrijdende auto's geprogrammeerd worden. En het lijkt er volgens de auteurs niet op dat dit iets is wat snel opgelost gaat worden: "Voorlopig lijkt er geen makkelijke manier om algoritmes te ontwerpen die morele waarden en persoonlijk eigenbelang met elkaar verzoenen," concluderen ze.