FYI.

This story is over 5 years old.

Tech

Un nouveau programme peut dire si vous êtes un criminel en étudiant votre visage

"On nous a accusés sur Internet d'être irresponsables."

À l'instar du test Voight-Kampff de Blade Runner (en plus tordu), un nouvel article sur le machine learning publié par deux chercheurs chinois se penche sur un sujet pour le moins controversé : laisser un ordinateur décider de votre innocence. Autrement dit, un ordinateur peut-il savoir si vous êtes un criminel simplement en étudiant votre visage ?

Dans leur article "Automated Inference on Criminality using Face Images", publié sur arXiv, Xiaolin Wu et Xi Zhang de l'université Jiao Tong de Shanghaï tentent de déterminer si un ordinateur peut détecter si un humain est potentiellement un criminel en analysant simplement les traits de son visage. Les deux chercheurs affirment que leurs tests ont été couronnés de succès, et qu'ils ont même découvert une nouvelle loi régissant "le visage normal des non-criminels."

Publicité

Selon, l'idée que des algorithmes puissent être meilleurs que des humains en matière de détection de la criminalité est "irrésistible". Mais comme le soulignent des gens sur Twitter et Hacker News, en introduisant des biais dans l'intelligence artificielle et les algorithmes de machine learning, on prend le risque d'introduire ces biais dans les ordinateurs. Les chercheurs, eux, affirment que les données utilisées ont été contrôlées en matière d'ethnicité, de genre, d'âge, et d'expressions faciales.

Imagine this with drones, every CCTV camera in every city, the eyes of self driving cars, everywhere there's a camera… Tim MaughanNovember 18, 2016

Les photos utilisées par les chercheurs étaient des photos d'identité standard d'hommes chinois âgés de 18 à 55 ans, dépourvus de pilosité faciale, de cicatrices ou d'autres marques notables. Wu et Zhang soulignent que les photos en question n'étaient pas issues des registres de police, et que sur les 730 criminels impliqués, 235 avaient commis des crimes violents "y compris des meurtres, des viols, des agressions, des kidnappings et des braquages."

Les chercheurs affirment avoir volontairement lissé "tous les facteurs humains, même les plus subtils" au cours de l'expérience. Dès lors que les données sont contrôlées avec précision, peut-on totalement éradiquer les biais humains ? Wu m'a expliqué qu'aucun biais humain n'avait affecté l'expérience. "En réalité, nous avons obtenu nos premiers résultats il y a un an. Nous avons vérifié de très près nos données, et nous avons réalisé de nombreux tests pour identifier d'éventuels contre-exemples, mais nous n'en avons trouvé aucun", affirme Wu.

Publicité

Voici comment ça marche : Xiaolin et Xi ont soumis à un algorithme de machine learning des photos de 1856 personnes, dont la moitié étaient des criminels condamnés, et ont ensuite examiné si leurs quatre systèmes de classement - chacun ayant recours à une méthode d'analyse des traits différente - étaient capables de détecter les criminels.

Ils ont découvert que leurs quatre systèmes d'analyse avaient un taux de succès élevé, et que les visages des criminels et des non-criminels diffèrent de façon imperceptible pour l'oeil humain, mais perceptible par un programme informatique. Par ailleurs, "la variation entre les visages criminels est bien plus importante qu'entre les visages non-criminels", écrivent Xiaolin et Xi.

"Nous avons également pu identifier des traits structurels qui indiquent clairement une tendance accrue à la criminalité, comme la courbure des lèvres"

"Les quatre systèmes produisent tous d'excellentes performances et prouvent qu'il est possible d'identifier automatiquement une tendance à la criminalité à partir des traits d'un visage, et ce en dépit de la controverse historique qui entoure une telle démarche, écrivent encore les chercheurs. Nous avons également pu identifier des traits structurels qui indiquent clairement une tendance accrue à la criminalité, qu'il s'agisse de la courbure des lèvres, de la distance entre les yeux, ou de l'angle nez-bouche." Le système le plus performant, baptisé Réseau de Neurones Convolutionnel, a réussi à identifier les criminels avec 89,51% de réussite.

Publicité

"À travers des expériences sérieuses et rigoureuses, concluent les chercheurs, nous avons prouvé que grâce au machine learning, des algorithmes sont capables de prédire la criminalité de façon convaincante."

Xialon et Xi reconnaissent dans leur article qu'ils ne sont "pas qualifiés pour débattre des stéréotypes en vigueur dans la société", mais le problème reste que le machine learning a la fâcheuse habitude de reproduire les biais humains en analysant des données, comme on l'a vu lors de plusieurs incidents récents. Les deux chercheurs admettent qu'ils sont en terrain sensible. "Nous avons été accusés sur Internet d'être irresponsables", reconnaît Wu.

This paper is the exact reason why we need to think about ethics in AI. Stephen MayhewNovember 17, 2016

Dans leur article, ils citent Aristote : "On peut deviner le caractère à partir des traits de l'individu." Mais cela doit être laissé aux psychologues, pas aux machines, pas vrai ? La principale inquiétude concerne l'éventualité de "faux positifs" - des gens innocents qui seraient identifiés comme coupables - surtout si un tel programme venait à être utilisé par le système judiciaire. Les chercheurs avouent que les algorithmes ont produit quelques faux positifs (en identifiant des non-criminels comme criminels) et de faux négatifs (l'inverse, donc).

Sur Internet, de nombreux critiques ont massacré l'article. "J'ai cru que c'était une blague quand j'ai lu l'extrait, mais il semblerait que ce soit un article authentique, peut-on lire sur Hacker News. Je veux bien reconnaître que c'est un champ de recherche intéressant… mais pour ça, il faut des experts en criminologie, en physiologie et en machine learning, pas juste deux types qui suivent les instructions de Keras concernant la classification par réseau de neurones."

D'autres ont carrément remis en cause la validité de l'article, remarquant que l'un des chercheurs possédait un compte Gmail. "Tout d'abord, je ne pense pas que ce soit de la satire. Mais j'avoue que le recours à un compte Gmail de la part d'un chercheur d'une université chinoise est pour le moins étrange", souligne un autre lecteur de Hacker News.

Mais Wu a une réponse à cette objection. "Certains ont demandé pourquoi j'utilisais une adresse Gmail en tant que professeur dans une université chinoise. En fait, je suis aussi professeur à la McMaster University, au Canada", m'a-t-il expliqué.