FYI.

This story is over 5 years old.

Tech

Als we AI zonder gekke vooroordelen willen, moeten we het een wereldbeeld geven

Kun je 'rechtvaardigheid' programmeren?
Beeld: Flickr/Kate Russell

Een van de grootste problemen met kunstmatige intelligentie is ervoor zorgen dat computers geen racistische, seksistische klootzakken worden.

Dat blijkt best wel lastig te zijn. Ze worden namelijk gemaakt en geprogrammeerd door mensen – en dat zijn nou eenmaal vaak racistische en/of seksistische klootzakken. Maar als we racisme kunnen inbakken in programma's, dan kunnen we machines toch ook een gevoel voor rechtvaardigheid geven?

Advertentie

Sommige experts geloven dat de grote databases waarmee we moderne programma's trainen, de vooroordelen van mensen hebben overnemen.

Om het wat botter te zeggen, zoals Microsoft-onderzoeker Kate Crawford deed in de New York Times, kunstmatige intelligentie heeft een blanke-mannenprobleem.

Laatst was er bijvoorbeeld een schoonheidswedstrijd die gejureerd werd door een algoritme en die koos alleen blanke mensen uit een diverse groep deelnemers. Andere software die is getraind met tekst van het internet bleek blank-klinkende namen 'aangenamer' te vinden dan niet-blanke namen.

Misschien kan dat racisme en seksisme in de databases wel rechtgetrokken worden met een soort 'rechtvaardigheids-algoritme'. Dat is een stuk code dat vooroordelen op basis van gender of huidskleur kan herkennen en die negeert als er een beslissing wordt genomen over bijvoorbeeld een toelating tot een school of de hoogte van een verzekeringspremie.

Een team van onderzoekers aan de universiteit van Utah, Arizona en Pennsylvania geloven dat ze de eerste stappen hebben gezet naar dat rechtvaardigheids-algoritme. Dat hebben ze gedaan door in wiskundige termen te formuleren wat 'eerlijk' is. Computerwetenschappers zouden dat kunnen gebruiken als ze kunstmatig intelligente computerprogramma's gaan trainen.

"We zetten eigenlijk de dingen die mensen in de politieke wetenschappen al jaren zeggen om in een taal die computers kunnen begrijpen" zei Suresh Venkatasubramanian, een computerwetenschappers bij de Universiteit van Utah en co-auteur van het werk. "In de wereld zijn er structurele vooroordelen waar mensen zich bewust van moeten worden"

Advertentie

Om eerlijke resultaten zonder vooroordelen te krijgen, moeten de algoritmes getraind worden met het sterke vermoeden dat objectief-lijkende datasets misschien wel vooroordelen bevatten, schreven ze in een paper.

Zo'n soort algoritme, samen met programmeurs die goed opletten welke data ze aan de software voeren, zou een groot deel van de digitale, geautomatiseerde, vooroordelen tegengaan.

"Er zijn structurele vooroordelen in de wereld waar mensen bewust van moeten worden"

De onderzoekers hebben twee manieren bedacht waarop algoritmes naar de wereld kunnen kijken. Deze methodes kunnen toegepast worden in de ontwikkeling van kunstmatige intelligentie.

De eerste methode noemden ze 'What you see is what you get' (WYSIWYG). Met deze manier gaan ze ervan uit dat wat er in de data staat, ook een objectief beeld van de wereld is. Zelfs als er een bevooroordeeld resultaat komt. Dus als er dan uit een dataset van IQ-tests blijkt dat een bepaalde etniciteit minder geschikt is voor een wetenschappelijke promotie, dan is dat gewoon zo.

De andere manier noemden de onderzoekers 'We're all equal' (WAE). Dan gaat de kunstmatige intelligentie ervan uit dat de data de realiteit niet goed weergeeft omdat vooroordelen onvermijdelijk zijn. Bijvoorbeeld zoals niet-blanke en armere mensen al bij voorbaat minder kans hebben op een goede score bij IQ-tests. Binnen deze methode gaat de machine ervan uit dat verschillende groepen over het algemeen gelijk moeten zijn. Het resultaat wordt hiervoor gecompenseerd.

Advertentie

Als deze twee methodes de standaard worden voor algoritmes, dan zal het in de toekomst beter te voorspellen zijn hoe computers beslissingen maken over wat ze observeren (zoals die IQ-testresultaten). Je kan verwachten dat zeker de WYSIWYG-manier veel problemen kan opleveren, want er zit vrijwel altijd ergens een structurele ongelijkheid in datasets. Kan die dan eigenlijk wel gebruikt worden?

"Ik ben een computerwetenschapper en ik weet niet welk beeld correct is" zei Venkatasubramanian "Het is belangrijker om duidelijk te zijn over wat de gedachtegang is."

Het wordt nog wel lastig om ervan uit te gaan dat mensen sociaal bewust genoeg zijn om WAE boven WYSIWYG te kiezen. Het is al lastig genoeg om mensen verder te laten kijken dan hun fanatisme, zelfs zonder computers.

"Dat probleem kunnen we niet oplossen," zei Venkatasubramanian, "maar we kunnen computers in ieder geval wel zó instellen dat ze rekeningen houden met de structurele fouten van mensen."

Als Venkatasubramanian en zijn collega's gelijk hebben, kunnen we later tegen computers zeggen hoe gek de wereld eigenlijk is, en dat niet alles is wat het lijkt.