Kunstmatige intelligentie
Illustratie door de auteur
Tech

Kunstmatige intelligentie bepaalt ons leven meer dan ooit, en dat is alarmerend

De toeslagenaffaire, nepnieuws en seksistische sollicitatieprocedures zijn slechts het topje van de ijsberg. "Kunstmatige intelligentie versterkt bepaalde ongelijkheden in onze samenleving."

Terwijl kunstmatige intelligentie in de jaren vijftig nog als een futuristisch hersenspinsel van enkele gekke professoren werd gezien, is het nu overal. Kunstmatige intelligentie en algoritmes bepalen wat je op je tijdlijn te zien krijgt, welke films en series jou aangeraden worden op Netflix en welke zoekresultaten je als eerste ziet op Google. Het zit in je telefoon, in je auto en zelfs in die slimme stofzuiger die je – als je geluk en rijke ouders hebt– voor kerst hebt gekregen. De zelflerende computersystemen zouden aan de hand van een algoritme uiteindelijk menselijke intelligentie na kunnen bootsen – of die zelfs gaan overtreffen. Zo is zo’n computersysteem inmiddels al beter in het herkennen van leugens dan een rechter, ontdekt het je depressie veel eerder dan een psycholoog, en is het ook nog eens beter in het opsporen van huidkanker

Advertentie

Goed nieuws, zou je denken, maar kunstmatige intelligentie wordt ook ingezet om andere voorspellingen te doen - over wie sneller belastingfraude pleegt, bijvoorbeeld. En als de toeslagenaffaire van vorig jaar een indicatie is, zie je dat de resultaten van zo’n algoritme niet altijd even koosjer zijn. De technologische ontwikkeling brengt dus automatisch ethische vraagstukken met zich mee. 

Maaike Harbers is lector Artificial Intelligence and Society bij Hogeschool Rotterdam. Daar doet ze onderzoek naar de ethische en maatschappelijke gevolgen van kunstmatige intelligentie en onderzoekt ze hoe ontwerpers van systemen die gebruik maken van kunstmatige intelligentie daar ook rekening mee kunnen houden. Deze week geeft ze lezingen tijdens Internet of Things, een jaarlijks evenement van de Hogeschool van Rotterdam. Dit jaar gaat het onder andere over kunstmatige intelligentie en ethiek. 

VICE sprak haar over de effecten van kunstmatige intelligentie op ons wereldbeeld, de ethische consequenties hiervan en waar we als maatschappij op moeten letten.

VICE: Hoi Maaike, twintig jaar geleden begon je aan jouw studies kunstmatige intelligentie en filosofie, inmiddels is je vak relevanter dan ooit. Is er veel veranderd?
Harbers: Toen ik vijftien jaar geleden mijn promotieonderzoek deed rond kunstmatige intelligentie, was dat onderwerp nog niet zo enorm toepasbaar. Maar een aantal jaar geleden is er een doorbraak geweest op gebied van machine learning, een onderdeel van kunstmatige intelligentie. Er waren ineens veel meer data beschikbaar en veel meer processorkracht om die data te verwerken. Nu maakt iedereen bijna dagelijks gebruik van kunstmatige intelligentie. Bij social media worden de berichten die bovenaan op je tijdlijn staan gebaseerd op een algoritme, bijvoorbeeld. Of denk aan spraak- of gezichtsherkenning.

Advertentie

En ook los van internetgebruik wordt ons leven deels bepaald door algoritmes.
Ja, absoluut. Zo zijn er bedrijven die beslissingen moeten maken over bijvoorbeeld of je in aanmerking kan komen voor een hypotheek of een lening. Ook worden er algoritmes ingezet om te kijken of je de geschikte kandidaat bent voor een baan. En ook in de gezondheidszorg wordt er veel gebruikgemaakt van kunstmatige intelligentie, bijvoorbeeld om op foto’s te analyseren of er bepaalde afwijkingen zijn, zoals een tumor. Er zijn al verschillende voorbeelden waarbij kunstmatige intelligentie het beter doet dan mensen kunnen. En daar komen een hoop ethische vragen bij kijken.

Zoals?
Er zijn verschillende vraagstukken. Er wordt bijvoorbeeld steeds meer van onze data verzameld en gebruikt, je kan je afvragen wat voor effect dat heeft op onze privacy. Mensen denken dan vaak: ik kies zelf wat ik op het internet zet, dus mij maakt dit niets uit. Maar mensen vergeten vaak dat alles wat je doet op het internet wordt bijgehouden, dus ook alle pagina’s die je opslaat, en hoe je de muis over het scherm beweegt. Algoritmes kunnen op basis daarvan voorspellingen over je doen.

Een ander belangrijk ethisch dilemma bij kunstmatige intelligentie gaat over ‘bias’, of ‘vooringenomenheid’. Een voorbeeld: gezichtsherkenningssoftware werkt beter op witte gezichten dan op niet-witte gezichten, en beter op mannengezichten dan op vrouwengezichten. Dat algoritme discrimineert dus op basis van sekse en ras. En als je daar niet mee oppast, gebeurt dit ook bij algoritmes die beslissingen maken over een hypotheek of lening. 

Advertentie

Wat zou het resultaat daarvan kunnen zijn?
Met een smart home kan je bijvoorbeeld zien of iemand ‘s nachts vaak wakker wordt, doordat het licht vaak aangaat. Die informatie kan je combineren met de kennis dat mensen die slechter slapen, later een grotere kans hebben op alzheimer. Zo kunnen bedrijven, die die informatie opkopen, een voorspelling doen over onze gezondheid. Dat die voorspellingen niet per se hoeven uit te komen, maakt een verzekeringsmaatschappij niet veel uit. Als die voorspelling voor zestig procent correct is, dan kan een verzekeringsmaatschappij er al geld mee verdienen.

Bij een hypotheekverstrekker moet je een lijst invullen met data, waardoor bepaald wordt welke hypotheek je kan krijgen. Je wilt dat dit aan de hand van informatie gebeurt die er echt toe doet, zoals hoeveel geld je verdient en hoeveel schulden je hebt. Maar als hierin bijvoorbeeld ook je postcode meegenomen wordt, dan kan het gebeuren dat het algoritme jou afkeurt omdat je in een buurt woont waar relatief veel mensen niet in staat zijn hun hypotheek af te betalen. Soms worden postcodes ook verbonden met migratieachtergrond. Als daar niet goed op wordt gelet, ontstaat er heel gemakkelijk discriminatie. 

Dat zagen we dus ook bij de toeslagenaffaire.
Ja. Ik ken niet precies de details over in hoeverre daarbij gebruik werd gemaakt van kunstmatig intelligentie, maar wel zagen we dat mensen met een dubbele nationaliteit extra werden gecontroleerd door het systeem. Dat is al een vorm van bias in een programma. Wanneer je een bepaalde groep meer gaat controleren, ga je er ook meer fraude vinden. Dan wordt de voorspelling ook weer ‘waarheid’.

Advertentie

In zo’n geval gaat zo’n bias niet alleen meer over gebruiksvriendelijkheid, maar het heeft ook een daadwerkelijke impact op het dagelijkse leven van mensen.
Ja, absoluut. Dat zie je bijvoorbeeld ook bij sollicitatiebrieven. Er zijn programma’s om cv’s te scannen, waardoor je meteen kan zien wanneer een cv interessant is en wanneer niet. Amazon had zo’n programma ontwikkeld. Dat algoritme is getraind met data van wie al in het bedrijf werkte, en er werd gekeken naar wie tot nu toe succesvol was in het bedrijf. Dat waren vaker mannen dan vrouwen. Dat algoritme selecteerde daarom alleen de cv’s van mannen. 

Kunstmatige intelligentie kan een krom systeem dus in stand houden.
Sterker nog: het versterkt bepaalde ongelijkheden in onze samenleving. Zeker als je zelf de systemen niet corrigeert en controleert op zulke bias.

Zijn we hier voldoende bewust van?
Nee, maar de afgelopen jaren zie ik wel dat steeds meer mensen zich bewust worden van die ethische en maatschappelijke gevolgen van kunstmatige intelligentie. Er zijn veel schandalen in het nieuws gekomen. Denk aan Cambridge Analytica (het schandaal waarbij het data-analysebedrijf Cambridge Analytica persoonlijke data van miljoenen Facebookgebruikers zonder toestemming gebruikte voor politieke doeleinden, red.). In Nederland was er het overheidssysteem SyRI dat fraude moest opsporen, en daarbij ook etnisch profileerde. 

Advertentie

Een ander schandaal vond plaats bij een algoritme van Google dat afbeeldingen kan labelen, zoals bijvoorbeeld een gebouw of een fiets. Het algoritme had daarbij een afbeelding van een zwarte vrouw gelabeld als een gorilla. Dat kwam doordat het algoritme vooral gericht was op witte mensen. Gezichtsherkenning wordt bijvoorbeeld gebruikt om toegang te verlenen tot een gebouw. Dan wil je wel gewoon herkend kunnen worden. Maar anderzijds: als je te vaak herkend wordt door zo’n gezichtsherkenning, dan kan je niet meer anoniem op straat. Je kan je afvragen of dat wenselijk is. 

Jeetje, wat moeten we hier aan doen?
Enerzijds moeten we beseffen dat kunstmatige intelligentie niet neutraal is. We maken keuzes over welke data we wel en niet verzamelen, en hoe we het algoritme trainen en waarvoor we het wel en niet inzetten. Die ethische keuzes hebben maatschappelijke gevolgen. Vaak is dat besef er niet. 

Wat je concreet kan doen, is bijvoorbeeld actie ondernemen op politiek niveau, door meer te reguleren. Een paar jaar geleden is de AVG en de Europese privacywetgeving ingevoerd. Dat was een belangrijke stap. Ook bedrijven kunnen meer doen aan de technologie die ze ontwikkelen, door hun technologie extra te controleren op bias. En ook onderwijs hierin is belangrijk: leer jongeren al vanaf de basisschool wat de impact van kunstmatige intelligentie op hun leefwereld is. En tot slot is het ook belangrijk dat de media aandacht blijven vestigen op de keren dat het goed mis gaat, zoals dus tijdens de toeslagenaffaire. Het leert de bevolking steeds kritisch te laten kijken naar kunstmatige intelligentie. 

Advertentie

En op kortere termijn: er wordt nu veel gesproken over fake news en hoe algoritmes ervoor zorgen dat je altijd dezelfde, soms foutieve, informatie voorgekauwd krijgt. Wat moeten we hier aan doen?
Het is een heel groot, complex probleem. In dit geval gaat het ook erg over vertrouwen in de politiek en wetenschap. En ook algoritmes spelen een rol in de polarisatie en bepalen uiteindelijk ons wereldbeeld. 

Ik doe zelf een onderzoeksproject hierover met de NPO. We kijken daarbij naar hoe we ervoor kunnen zorgen dat gebruikers van NPO Start aan de hand van aanbevelingen niet steeds meer van hetzelfde te zien krijgen. Dat is echter ontzettend complex: veel bedrijven willen namelijk dat mensen zo lang mogelijk op hun platform blijven, aangezien je daar meer mee kan verdienen. Je zou dit dus als overheid moeten reguleren. Gelukkig geloof ik er ook in dat mensen zelf wantrouwen gaan voelen tegenover onethische bedrijven, en dat kan er al voor zorgen dat bedrijven zich toch ethisch gaan gedragen.

Heb je het gevoel dat kunstmatige intelligentie misschien wat te snel is ontwikkeld, en wij als maatschappij dus niet snel genoeg begrijpen wat de daadwerkelijke impact ervan is? 
Wetgeving loopt altijd wat achter, maar ook bij het publiek duurt het even om alle consequenties te overzien. 

Het ding is: je kan technologie voor goede en slechte zaken inzetten. Een mes kan je gebruiken om groenten te snijden, of om er iemand mee dood te steken. Hetzelfde geldt voor kunstmatige intelligentie, wat op het gebied van gezondheidszorg bijvoorbeeld heel veel goeds doet. Daarbij is er zoveel informatie beschikbaar dat we simpelweg niet zonder algoritmes kunnen. Zolang je maar kritisch blijft kijken naar kunstmatige intelligentie.

Zijn er ethici in jouw veld die hier anders over denken?
De meesten zijn het erover eens dat er nog flink veel verkeerd gaat. Maar als het over kunstmatige intelligentie gaat, wordt vooral onderzocht hoe we wat we doen, nog beter kunnen doen. Ikzelf zou nog een stap terug willen nemen. Waar willen we überhaupt naartoe met de samenleving? Denk bijvoorbeeld aan de aanbevelingen van social media: enerzijds kan je nadenken over hoe je die aanbevelingen diverser kan maken, maar anderzijds kan je je ook afvragen of die aanbevelingen wenselijk zijn. Maakt het ons niet verslaafd? En hebben die aanbevelingen niet te veel invloed op wat er in de wereld gebeurt? Dit is volgens mij een van de vraagstukken waar we ons dringend mee bezig moeten houden. 

Dankje!

Het evenement, Internet of Things, vindt nog tot en met vrijdag, 9 april, plaats. Je kan je hier aanmelden voor de lezingen.