En 2018, l'intelligence artificielle est toujours une affaire d’humains

Pseudo-IA, IA Potmekine, IA Magicien d’Oz… Les techniques de fraude à l’algorithme qui consistent à faire bosser des humains pour pallier aux limites des machines sont partout.

|
oct. 9 2018, 7:30am

Photo : Franki Chamaki/Unsplash

Vous avez entendu ? L’intelligence artificielle va changer le monde. Depuis plusieurs années, la clameur monte du cortège techno-entrepreneurial : les algorithmes vont progressivement surpasser et remplacer tous les salariés de la planète, ou presque. Les investisseurs aiment cet air : en 2017, ils ont distribué douze milliards de dollars à quelques milliers d’entreprises d’intelligence artificielle — le double de l’année précédente. En 2021, l’investissement dans l'IA devrait atteindre les 57 milliards de dollars. Logiquement, les acquisitions explosent. Les prévisions des analystes financiers varient mais une chose est sûre : à ce rythme, le marché de l’IA pèsera de quelques dizaines à quelques milliers de milliards de dollars dans la décennie à venir.

L'enthousiasme des investisseurs n'a pas échappé aux start-uppers, qui développent en masse des dispositifs plus ou moins liés à l'IA ou prétendent qu’ils le font. Le but du jeu est de présenter un produit basé sur l'intelligence artificielle le plus vite possible, quitte à camoufler ses imperfections à l'aide d'humains. Telle est l'ironie du boom de l'IA : de nombreux individus sont payés pour faire croire qu'une « intelligence artificielle » fonctionne. Le stratagème a plusieurs noms selon le degré de « collaboration homme-machine » : la pseudo-IA, l’IA Potemkine, l’IA magicien d’Oz. Et tout le monde l’utilise, de la start-up chinoise en quête d’investisseurs à Facebook.

Dix ans d'autonomie relative

Le constat est simple : entre les entreprises qui vendent de « l’IA hybride », celles qui s’appuient sur l’apprentissage supervisé, celles qui font appel au crowdsourcing de microtâches pour assister leurs algorithmes et celles qui mentent sur les capacités de leur produit, il existe bien peu de services d’intelligence artificielle n'ayant pas besoin d’intervention humaine. Grâce à cette situation, les entreprises d'IA prétendument autonome sont couvertes si l'on vient à découvrir que des humains se cachent derrière leurs algorithmes : il leur suffit de déclarer que leur produit est toujours en développement ou de mettre l’accent sur le rôle de « supervision » des opérateurs. Ce qui amène peu de mensonges, mais beaucoup d'arrangements avec la vérité.

Dans les cas les plus marquants, la tâche qui devait échoir à une machine est effectuée dans son intégralité par un humain. Ainsi, en 2008, la BBC a révélé que Spinvox, une entreprise qui prétendait utiliser un algorithme appelé « the Brain » pour convertir des messages vocaux en format texte confiait la majorité des transcriptions à des centres d'appels basés aux Philippines et en Afrique du Sud. Ce genre de situation embarrassante se produit toujours dix ans plus tard : au mois de septembre dernier, l'entreprise chinoise iFlytek semble avoir tenté de présenter une traduction réalisée en temps réel par un être humain comme l'oeuvre d'une IA. La plupart du temps, les prophètes de l'automatisation n'osent heureusement pas aller aussi loin dans le déguisement.

Beaucoup d'entreprises surveillent les inputs que leur « intelligence artificielle » est supposée digérer seule. En 2016, par exemple, Bloomberg a révélé que l'assistant virtuel de X.ai était aidé dans sa mission de planification de réunions par 21 « entraîneurs d'IA ». Travaillant parfois douze heures par jour, ces petites mains devaient s'assurer que les requêtes des clients ne contenaient pas d'erreurs pouvant embrouiller les algorithmes, quitte à corriger et saisir les données à la main : fautes d'orthographes, erreurs dans le fuseau horaire... Clara, un service concurrent, emploie des humains pour la même raison, tout comme l'utilitaire de compilation de notes de frais Expensify. Eh oui ! Les robots ont toujours besoin de nous pour « comprendre » et apprendre. C'est rassurant, certes, mais aussi problématique pour notre intimité.

Au mois de juillet dernier, le Wall Street Journal a révélé que Google permettait à ses partenaires d’accéder aux mails de ses utilisateurs. C'est ainsi que les ingénieurs d'au moins deux entreprises, Edison et Return Path, ont pu décortiquer des milliers de messages pour entraîner des services « intelligents ». Au milieu du scandale consécutif, quelques fâcheux ont rappelé que les utilisateurs de Gmail avaient consenti à l'exploitation de leurs messages. Le pire, c'est que ce genre de sacrifice ne garantit pas qu'une intelligence artificielle produira les résultats escomptés.

Dans certains cas, des humains sont chargés de surveiller, voire de corriger l'output d'une IA. L'assistant intelligent de Facebook, Messenger M, vaguement lancé en 2015, nécessitait le soutien constant de nombreux modérateurs pour l’aider à rédiger ses réponses. Il a fermé au printemps dernier. Aujourd’hui, le soupçon plane sur toutes les nouvelles démonstrations algorithmiques. En mai dernier, après la terrifiante démonstration de l’assistant vocal Duplex de Google, Vanity Fair et une partie de la presse tech se sont interrogés : Sundhar Pichai nous aurait-il tous bernés avec sa machine capable de faire « hum » entre chaque phrase ?

En vérité, personne ne comprend rien à l’IA

L’humain joue encore un rôle central dans le développement des machines autonomes, c'est évident — et logique. Dès lors, pourquoi cette frénésie, ces efforts de dissimulation embarrassés ? Peut-être parce qu’excepté quelques chercheurs, personne ne comprend cette technologie. Le fantasme palliant à l’ignorance, l'IA apparaît plus avancée qu'elle ne l'est réellement : elle est le futur, maintenant. Attisé sans relâche à des fins commerciales, se sentiment finit par brouiller la perception du public. Le verdit de ceux qui savent est pourtant sans appel. Yann LeCun, responsable de l’IA chez Facebook, et Andrew Ng, fondateur de Google Brain, ne se lassent pas de le répéter : développer une intelligence artificielle est très difficile et nécessite d’immenses ressources, en terme de données d'entraînement comme de puissance de calcul. La majorité des start-ups n’ont tout simplement pas les moyens de leurs ambitions.

D’autre part, les méthodes et architectures de l’apprentissage machine produisent -des résultats extrêmement limités. Nous sommes aux débuts de l’ère de l’IA dite « étroite », c'est-à-dire extrêmement spécialisée : les meilleurs algorithmes peuvent s'acquitter de tâches précises (comme la reconnaissance textuelle) et pas trop complexes (la reconnaissance du langage naturel et du contexte, c'est compliqué) mais c'est tout. Si les chatbots ont par exemple beaucoup évolué depuis leur ancêtre Eliza, codé au MIT dans les années 60 (et toujours en ligne), nous sommes encore loin de converser naturellement avec des machines.

En 2016, Amazon a lancé le prix Alexa, une compétition annuelle visant à créer un bot capable de discuter de tout et de rien avec un humain pendant 20 minutes. Le prix n’a toujours pas été décerné et atteint désormais 3,5 millions de dollars. Google et Facebook eux-mêmes ont abandonné le dogme du « tout-IA » en enrôlant des milliers de modérateurs pour nettoyer leurs plateformes. Ces petits échecs ne doivent pas faire oublier que le fonctionnement des algorithmes les plus perfectionnés nous échappe parfois complètement. Face à ces boîtes noires, les humains cessent d'être des éducateurs et deviennent des explorateurs. Quoi qu'il arrive, l'intelligence artificielle n'est pas près de se débarrasser de ses maîtres.