FYI.

This story is over 5 years old.

Tech

Waarom jouw baan overgenomen gaat worden door een robot (of niet)

Onderzoekers hebben een aantal criteria gevonden.

Als je het hebt over de banenapocalyps, zijn er ontzettend veel doemdenkers. Voor veel mensen is het absoluut zeker dat in de nabije toekomst kunstmatige intelligentie en/of robots bijna alle bestaande banen gaan overnemen. In een land als Amerika, waar een sociaal vangnet praktisch niet bestaat, zou de uitkomst van deze technologische sprong voorwaarts voor het ineenstorten van de samenleving kunnen zorgen – tenzij ze hun economische systeem drastisch veranderen.

Advertentie

Aan de andere kant, hoeft dat natuurlijk helemaal niet zo extreem te zijn. Misschien zijn er wel heel veel banen waarvan we niet willen dat machines ze overnemen – bijvoorbeeld in de zorg, een van de hardst groeiende sectoren – of die machines gewoon niet kunnen uitvoeren. Deze tweede categorie is het onderwerp van een paper van wetenschappers Erik Brynjolfsson en Tom Mitchell dat in december in Science verscheen. Ze concluderen dat hoewel robots niet het “het einde van werk” betekenen, maar dat het toch wel even een beetje raar kan gaan worden.

“Hoewel het duidelijk is dat machine learning een ‘technologie met algemeen nut’ is die weer veel nieuwe innovaties mogelijk gaat maken, zoals de stoommotor en elektriciteit. Maar toch zijn niet veel mensen het eens over waar ML-systemen het beste in zijn, en daarom zijn ook weinig mensen het eens over wat de impact op werkgelegenheid en de economie gaat zijn,” schrijven Mitchell en Brynjolfsson. “Hoewel sommige delen van veel banen mogelijk ‘geschikt voor ML’ zijn (GML), passen andere taken binnen dezelfde banen niet goed binnen de criteria voor ML. Daarom zijn de effecten op de werkgelegenheid ingewikkelder dan het eenvoudige verhaal dat hele banen vervangen worden, waar veel mensen het over hebben.”

Het paper noemt in totaal acht algemene kenmerken die een baan GML maken. Ik ga ze hier niet allemaal opnoemen, maar een aantal is het wel waard om uit te lichten. Allereerst heeft machine learning goed gedefinieerde problemen nodig waarbij de inputdata een duidelijk verband hebben met de outputvoorspellingen. Als je bijvoorbeeld arts bent, loop je dus risico. Medische gegevens gaan erin en diagnoses komen eruit. Dat is een vrij duidelijk verhaal. Hondenfoto’s gaan erin en voorspellingen van hondenrassen komen eruit. Aan de andere kant wordt er ook altijd gezegd dat de hond iets zegt over z’n baasje, waardoor je dus ook hondenrassen zou kunnen voorspellen aan de hand van foto’s van de baasjes. In dat geval zou het verband iets minder duidelijk zijn, omdat de causaliteit achter de voorspelling ergens in het ML-model begraven zou liggen.

Advertentie

ML-modellen hebben ook veel data nodig. Heel veel data. Ze moeten ergens van leren. Om een medische diagnose te kunnen voorspellen, heeft een ML-algoritme gigantisch veel trainingsdata nodig in de vorm van patiëntengegevens die door menselijke artsen zijn voorzien van correcte diagnoses. Alleen dan kan een algoritme naar nieuwe, ongelabelde data kijken en nauwkeurige voorspellingen maken.

Een paar punten liggen minder voor de hand. ML-modellen hebben bijvoorbeeld relatief eenvoudige causale verbanden nodig om voorspellingen te kunnen maken. Als je een paar observaties als input hebt en je wilt de output kunnen voorspellen, moet de input vrij direct verband houden met de output, in plaats van via een paar minder duidelijke oorzaak-gevolgrelaties. Daar komt nog eens bij dat machine learning niet werkt in gevallen waar verkeerde voorspellingen onacceptabel zijn. Modellen worden als succesvol gezien als ze meer dan 90 procent nauwkeurig zijn. Dat betekent dus dat we het prima vinden als ze in 10 procent van de gevallen fout zitten. Maar als we bijvoorbeeld computers gaan gebruiken om olietankers mee te besturen, is zelfs een fractie van een procent een onacceptabel hoge kans op fouten.

Er zijn andere factoren die wat minder goed te kwantificeren zijn. Dat zijn bijvoorbeeld dingen die ons mens maakt; emotionele intelligentie en empathie zijn niet echt GML. “De meer ongestructureerde taak van interactie met andere artsen, en de potentieel emotionele taak van het communiceren met en het geruststellen van patiënten, zijn een stuk minder geschikt voor ML-benaderingen, in ieder geval zoals dit er vandaag de dag uitziet,” menen Brynjolfsson en Mitchell.

Wat het meest waarschijnlijk lijkt, is dat GML-taken niet hele beroepen worden, maar eerder onderdelen binnen die beroepen. Vergis je niet, machine learning zal zeker blijven oprukken, maar in plaats van dat het alle banen gaat overnemen (hoewel er zeker een hoop gaan verdwijnen), wordt het een normaal onderdeel van heel veel banen. Dat een algoritme kanker kan diagnosticeren betekent niet dat het algoritme ook je nieuwe dokter wordt. Dat algoritme zal veel waarschijnlijker een hulpmiddel worden van je arts. En die arts blijft gewoon een mens.