FYI.

This story is over 5 years old.

Tech

Ces lunettes font croire aux systèmes biométriques que vous êtes Milla Jovovich

Face aux systèmes de reconnaissance faciale, la recherche sur le camouflage a un bel avenir devant elle.

Vous aimez bien rester discret, éviter les ennuis ? Par bonheur, il est maintenant possible de feinter les systèmes de reconnaissance faciale dissimulés dans les lieux publics, soit en rendant votre visage méconnaissable, soit en vous faisant passer pour quelqu'un d'autre. Et tout cela, grâce aux lunettes mises au point par des chercheurs de Carnegie Mellon.

La paire de lunettes en question, décrite dans cet article et sur l'excellent blog Prosthetic Knowledge, possède une monture dont les motifs permettent de confondre les algorithmes d'identification. Le système est si efficace que l'un des chercheurs, un homme blanc, a réussi à se faire passer pour l'actrice Milla Jovovich. Sa collègue, une femme originaire d'Asie du sud-est, a quant à elle réussi à incarner un homme d'origine arabe.

Publicité

Les lunettes ont été créées dans le but de tromper les programmes de reconnaissance faciale basés sur des réseaux de neurones, déclare le chercheur Mahmood Sharif. Elles ont réussi à entourlouper le logiciel de reconnaissance faciale Face++, utilisé pour la détection, le tracking et l'analyse de visages (avec inférences sur l'âge, le sexe voire l'identité de la personne) dans 90% des cas.

« Les systèmes anti reconnaissance faciale devront être réalisables et discrets. »

Sharif déclare que, idéalement, il faudra utiliser une paire de lunettes dont l'aspect soit parfaitement ordinaire, comme une autre paire à monture en écailles. « Les systèmes anti reconnaissance faciale devront être réalisables et discrets, » ajoutent les chercheurs.

Leur but est de perturber les réseaux de neurones du logiciel, qui parviennent à identifier un individu à partir de la coloration des pixels (entre autres) avant de comparer les informations obtenues à une banque de données d'images. Dans ces conditions, un léger changement au niveau du visage peut mettre le système en échec. Ainsi, les chercheurs ont conçu les lunettes de telle sorte que leurs motifs et leurs couleurs perturberait la perception du système, et sa capacité à lire la pixellisation.

Image: Carnegie Mellon University

« Notre algorithme résout un problème d'optimisation afin de déterminer quelles couleurs de lunettes permettent d'usurper une identité ou de ne pas dévoiler la sienne, » explique Sharif. « Il fait en sorte que la transition entre les couleurs soit lisse (comme les images naturelles), que les montures des lunettes puissent être imprimées facilement, et que les verres trompent le système de reconnaissance de visage, même les images de la caméra sont prises à différents angles ou que la personne ciblée change d'expressions faciales. »

Publicité

Le machine learning et les systèmes de reconnaissance faciale sont partout. Facebook les utilise depuis longtemps pour tagger ses utilisateurs, et la moitié de la population américaine est répertoriée dans les bases de données de reconnaissance faciale de la police. Comprendre comment tromper l'algorithme et comment se protéger de ce genre d'intrusions est d'autant plus important que notre dépendance au machine learning s'accroit.

Certes, ces méthodes peuvent bénéficier à un criminel en cavale, mais c'est un risque mineur par rapport à celui qui menace notre vie privée.

« Notre travail montre qu'un type très particulier d'algorithme - la reconnaissance de visage basée sur des réseaux de neurones profonds - peut être détourné par un adversaire passif qui se contenterait de modifier son apparence », déclare Sharif. « Avant de déployer des réseaux de neurones profonds dans des contextes de sécurité critiques, nous devrions les rendre plus robustes face aux interférences malveillantes. »

Les chercheurs estiment que ce genre de faille existe probablement dans d'autres systèmes basés sur le machine learning, notamment ceux que l'on utilise pour les diagnostics médicaux ou les voitures autonomes.

« Notre dépendance à la technologie ne fait que croitre, et nous oublions parfois que nos systèmes sont faillibles, » ajoutent les chercheurs. « Dans certains cas, les échecs peuvent avoir des conséquences catastrophiques, et coûter la vie. Notre travail montre que l'introduction du machine learning dans de nombreux domaines, si elle apporte de nombreux bénéfices, augmente également la surface de vulnérabilité de ces systèmes. »