We hebben onze kunstmatige intelligentie al geleerd om racistisch te zijn

En nu?

|
mei 31 2016, 7:37am

Uit een reportage van ProPublica bleek vorige week dat een algoritme de kans op recidive onder zwarte criminele steevast hoger inschat dan bij witte collegae.

Men zegt wel eens dat kinderen niet ter aarde komen als racisten of seksisten – haat leer je. Met artificiële intelligentie is het niet anders, en de mens is een fantastische leermeester.

De data-benadering van een kunstmatig intellect is misschien objectiever dan menselijke intuïtie, maar ze is ook afhankelijk van wat wij haar voeden. En duidelijk is dat er veel (onbewuste) overdracht is van raciale vooroordelen.

Denk aan Microsoft's Twitterbot Tay die door alle racistische teksten op Twitter veranderde in een nazistische Gilles de la Tourette patiënt.

De vooroordelen van algoritmes kunnen volgens Emiel van Miltenburg, PhD aan de VU, ook onopvallender zijn. Miltenburg analyseerde gecrowdsourcete beschrijvingen onder beelden van de Flickr30K database, een bron die is gebruikt om computers beeldherkenning bij te brengen.

Zo vond hij een afbeelding van een vrouw en een man in gesprek op werk. De machine herkende de man als de werkgever, en de vrouw als werknemer. En er waren vergelijkbare voorbeelden. Aziatische mensen zag de computer als Japans of Chinees, blanke baby's als 'gewone baby', terwijl zwarte baby's altijd een raciale vermelding meekregen.

"Denk aan kunstmatige intelligentie als een menselijke baby"

"Dit is iets waar we pas net van op de hoogte raken. Ons doel was om feitelijke beschrijvingen van de beelden te verzamelen, maar het zou mij absoluut niet verbazen als verder onderzoek naar gecrowdsourcete beeldbanken als Flickr30K wijst op nog meer raciale- en genderstereotypen. Al zijn de beschrijvingen dan nog zo 'objectief' ingevoerd," schrijft Julie Hockenmaier, hoofdonderzoeker van het onderzoek mij in een email.

"We moeten erkennen dat seksisme in de datasets is geslopen, en dat dit niet oké is," schrijft Miltenburg in een email. "Mensen trainen machines om beelden te herkennen alsof ze een Amerikaanse blanke man zijn." In de echte wereld heet dit gewoon racisme of seksisme. Miltenburg's paper is beschikbaar op ArXiv, en werd gepresenteerd op het Language Resources en Evaluation Conference in Slovenië.

Computers zijn niet goed of slecht. Ze doen gewoon wat wij ze leren. "Als dit de data is die wij AI voeden, dan gaat die de vooroordelen overnemen," zegt Jeff Clune, professor computerwetenschap aan de universiteit van Wyoming. "Anders zou er iets mis zijn met de technologie."

Een blind vertrouwen in de objectiviteit van deze machines kan nare situaties opleveren. De toekenning van een ziektekostenverzekering kan bijvoorbeeld afhankelijk worden van achtergrond, geloof, uiterlijk of geslacht. Zogenaamd 'objectieve' informatie kan systemisch racisme op die manier vereeuwigen.

Beeld: Shuttershock

Dus, wat te doen?

"Een goed begin is om de dataset te balanceren met beelden uit andere landen dan de VS. We hebben beeldbeschrijvingen nodig van mensen uit India, Australië of Hong Kong," zegt Miltenburg. "En we moeten weten wie de beschrijvingen schrijft, zodat we kunnen controleren op leeftijd, sekse en andere variabelen."

Een andere optie is om kunstmatige intelligentie te leren sommige informatie te negeren. "Je wil ook niet dat je kind met racisten omgaat, hetzelfde geldt voor AI." De ontwikkeling van kunstmatige intelligentie heeft in de toekomst minder met programmeren te maken, en meer met training en opvoeden.

Kunstmatige intelligentie is de Frankensteinbaby die we zelf hebben voortgebracht. En we zijn verantwoordelijk voor haar ontwikkeling.