Quantcast
Vivrons-nous bientôt dans Minority Report ?

Alors que les forces de l'ordre ont de plus en plus recours à des algorithmes pour "prévoir" les crimes, la police prédictive fera-t-elle de nous des présumés coupables ?

Cet article vous est présenté par la série SECTION ZERO diffusée tous les Lundi à 21H00 sur Canal+

Certains en rêvent, d'autres en font des cauchemars. Lorsque Steven Spielberg décide de réaliser Minority Report en s'inspirant de la nouvelle du même nom publiée par Philip K. Dick en 1956, son ambition est de créer un film qui présenterait "une réalité future" plutôt qu'une énième œuvre de science-fiction. Pour ce faire, il réunit en 1999 une panel de 16 experts qui doivent l'aider à imaginer à quoi ressemblera le monde en 2054, date à laquelle se déroule le film. On y trouve notamment un chercheur du MIT, le co-fondateur du magazine technologique Wired, le directeur du programme de recherche en biotechnologie de l'armée américaine, ou encore Jaron Lanier, l'un des inventeurs de la réalité virtuelle.

Après la sortie du film en 2002, la question de savoir si l'on se dirige vers un futur à la Minority Report est posée. Pourra-t-on un jour être arrêté pour un crime que l'on n'a pas (encore) commis ? Dans Minority Report, ce système qui a jeté aux oubliettes l'administration de la preuve et la présomption d'innocence est basé sur une foi sans limite dans les "precogs", des médiums capables de lire l'avenir pour identifier des personnes qui commettront bientôt un crime. Sans aller jusqu'à emprisonner des individus innocents dans le présent mais coupables dans un hypothétique futur, pouvoir prédire où et quand un crime sera commis est devenu un véritable objectif pour les forces de l'ordre dans de nombreux pays.

Dans le monde réel, les flics qui veulent anticiper le futur ne font pas appel à des voyants, mais à des algorithmes qui se basent sur les données du passé. On appelle ça l'analyse prédictive, ou la police prédictive lorsque ces techniques sont utilisées par les forces de l'ordre. "Le traitement de données, par définition, permet de faire de la prédiction. Plus on a de données, plus la prédiction peut être fiable," explique Jean-Gabriel Ganascia, expert en intelligence artificielle et en sciences cognitives à l'université Pierre et Marie Curie. La pratique s'est répandue aux Etats-Unis au début des années 2010, notamment avec le développement en 2011 du logiciel PredPol par la police de Los Angeles en collaboration avec des universitaires. En lui faisant analyser des données géographiques et temporelles sur les crimes commis par le passé dans une ville, le logiciel fournit aux policiers en patrouille des renseignements en temps réel sur les endroits où un crime est le plus susceptible de se produire selon le moment de la journée. Une manière de répartir plus efficacement les ressources en envoyant les policiers là où on aura le plus de chances d'avoir besoin d'eux. Predpol s'est depuis exporté dans des dizaines d'autres villes aux Etats-Unis, et même au-delà, notamment à Londres.

"Le programme de frappes de drones américain a beaucoup fait confiance aux renseignements numériques, et a fait beaucoup d'erreurs : on a cru que quelqu'un était à un endroit donné, mais en fait c'était quelqu'un d'autre qui avait son portable"

D'autres outils d'analyse prédictive à destination de la police sont apparus. A Milan, un policier bidouilleur a développé dans son coin le programme Key Crime. En analysant les données (date, lieu, mode opératoire) des cambriolages dans la ville, le logiciel détecte des points communs entre plusieurs opérations qui peuvent ainsi être attribuées à un même groupe de cambrioleurs. Il peut-même prédire où et quand ils sont le plus susceptibles de frapper à nouveau. C'est probablement à Chicago que l'on se rapproche le plus de Minority Report, car en plus de chercher à savoir où et quand un crime pourrait se produire grâce à l'analyse prédictive, les policiers de la troisième ville des Etats-Unis veulent aussi prédire qui pourrait être impliqué. Pour y arriver, ils se sont basés sur les travaux du sociologue de l'université de Yale Andrew Papachristos, qui a constaté dans un quartier difficile de Chicago que les personnes dont des proches avaient été tués avaient plus de chances de se faire tuer à leur tour, bien qu'elles ne soient pas forcément elles-mêmes impliquées dans des activités criminelles. A l'aide de ses données d'arrestations et de condamnations ainsi que de ses outils d'analyse prédictive, la police de Chicago a dressé une liste de plus de 400 personnes largement plus susceptibles que la moyenne d'être impliquées dans un homicide. Soit en se faisant tuer, soit en tuant quelqu'un. Les policiers ont même rendu visite à certains habitants pour les informer qu'ils se trouvaient sur la liste et leur conseiller de se tenir à carreau.

En France, la police n'utiliserait pour l'instant aucune technique d'analyse prédictive. En revanche, les gendarmes disposent d'une division analyse et investigation criminelles, au sein de laquelle une centaine de personnes tentent de prédire l'avenir grâce aux statistiques. Pour détecter des zones à risque, leurs algorithmes prennent en compte l'endroit, la date et l'heure des crimes et délits précédents, mais aussi les données socio-économiques de l'INSEE.

Il est très difficile de dire avec certitude si ces systèmes sont efficaces. D'abord parce qu'il est impossible de donner une réponse globale. Il faut évaluer les performances de ces programmes à l'échelle locale et prendre en compte de nombreux paramètres pour s'assurer qu'une baisse, ou une augmentation de la criminalité n'est pas due à d'autres facteurs. Les policiers utilisant Predpol aux Etats-Unis affirment que le programme a permis de faire baisser la criminalité dans les villes ou les quartiers dans lesquels il a été déployé. Mais constater que le crime baisse pendant qu'on utilise Predpol ne veut pas dire que le crime baisse grâce à l'utilisation du logiciel. Et pour ses détracteurs, l'approche de la police prédictive, qui consiste à renforcer les effectifs là où le logiciel prédit des crimes, ne fait que déplacer la criminalité, ou au contraire formule des prophéties auto-réalisatrices en concentrant toujours la police dans les mêmes endroits. Par ailleurs, tous les crimes et délits ne sont pas forcément déclarés, ce qui peut biaiser les données utilisées par le logiciel et donc fausser ses prédictions.

Ces programmes de détection des menaces sont en train de devenir de plus en plus sophistiqués et n'ont jamais été aussi abordables, notamment grâce aux progrès du big data et au développement du cloud, qui permettent de manipuler et de stocker d'énormes quantités de données à peu de frais. Pour Jean-Gabriel Ganascia, le big data se distingue des traitements statistiques traditionnels par sa capacité à identifier les "signaux faibles": des éléments qui ne sont pas significatifs statistiquement mais peuvent quand même donner des renseignements intéressants. "Avant, on faisait des échantillonnages, un peu comme le font les sondages, explique-t-il. Aujourd'hui, avec le big data, on raisonne autrement : on conserve toutes les données, et on va regarder quelles sont les anomalies qu'on observe à un moment donné, dans un groupe donné, qui se comporte différemment de la norme statistique."

L'intelligence artificielle vient également renforcer l'efficacité des systèmes d'analyse prédictive, en permettant aux machines d'apprendre par elles-mêmes et de s'améliorer. Après avoir été confrontées à assez de données, elles sont par exemple capables de comprendre le contenu de photos, de vidéos ou de textes jamais vus auparavant, même si ça ne marche pas à tous les coups. Cette technologie est elle aussi de plus en plus abordable, alors que plusieurs grandes entreprises du Web comme Google ou Microsoft ont passé en open source leurs outils d'intelligence artificielle, permettant à n'importe qui de les réutiliser gratuitement.

Le big data et l'intelligence artificielle ont ainsi permis l'émergence de nouveaux systèmes de détection des menaces qui vont bien au-delà des statistiques criminelles. Des entreprises comme Geofeedia, Dataminr ou PATHAR analysent les réseaux sociaux, voire tout le Web, afin d'identifier des tendances émergentes et prévoir des menaces pour le compte de services de police, du FBI ou d'entreprises. Le chercheur de l'université de Virginie Matthew Gerber a développé un modèle pouvant prédire entre 19 et 25 types de crimes et délits à Chicago à partir de tweets géolocalisés. Il expliquait à l'AFP en 2014 l'intérêt des réseaux sociaux pour anticiper des évènements, en prenant l'exemple de la picole. "Les gens tweetent sur leurs activités routinières. Et ces activités routinières les emmènent dans des environnements ou des crimes et délits sont susceptibles de se produire. Si je tweete que je vais me saouler ce soir et et si beaucoup d'autres gens sur Twitter parlent de se saouler aussi, on sait qu'il y a certains crimes et délits associés [à ces comportements]. C'est indirect."

La police et les services de renseignement misent aussi sur l'analyse des réseaux sociaux pour détecter la radicalisation et empêcher des attentats. "Grâce aux techniques de fouille de texte [basées sur l'intelligence artificielle], on étudie les réseaux sociaux pour repérer des attitudes caractéristiques, détaille Jean-Gabriel Ganascia. Par exemple si on voit que des gens font des voyages dans certains pays, ça peut laisser entendre qu'ils sont proches de certains engagements politiques. On regarde aussi la constitution de groupes qui peuvent échanger des éléments d'informations. Bien sûr, si on parle de groupes terroristes, ils sont plus prudents." L''Etat Islamique (EI) ne va pas live-tweeter ses projets d'attentats. Mais même la propagande officielle de l'organisation terroriste peut fournir "des renseignements utiles", expliquait l'année dernière le directeur adjoint de la CIA, David Cohen. "Les tweets de l'EI et ses autres messages sur les réseaux sociaux faisant la promotion de ses activités produisent souvent des informations qui, surtout lorsqu'elles sont agrégées, fournissent de véritables renseignements." Jean-Gabriel Ganascia met tout de même en garde contre la foi inébranlable dans ces informations. "On ne peut pas juste se fier à des renseignements informatiques, affirme-t-il. Ils doivent se coupler à des renseignements humains, qui sont difficiles à obtenir. Le programme de frappes de drones américain a beaucoup fait confiance aux renseignements numériques, et a fait beaucoup d'erreurs : on a cru que quelqu'un était à un endroit donné, mais en fait c'était quelqu'un d'autre qui avait son portable."

Il est désormais possible d'identifier les terroristes grâce au V de la victoire qu'ils font avec leurs doigts après un attentat.

Toutes ces techniques d'analyse prédictive peuvent également être couplées à la biométrie, une méthode d'identification basée sur les caractéristiques propres à chaque être humain. Les plus connues sont l'ADN et les empreintes digitales, mais on peut aussi utiliser la voix, le visage, les yeux, ou encore la démarche et même le cerveau. Par exemple, un étudiant jordanien a développé un système pour identifier les terroristes de l'EI qui font le V de la victoire avec leurs doigts, en analysant notamment la largeur, la longueur, l'écartement et la couleur de peau. Mais comme beaucoup d'autres en biométrie, cette technique est encore expérimentale, et donc loin d'être infaillible, avec une précision comprise entre 40 et 93% selon les cas. La reconnaissance faciale fait également fantasmer le monde de la sécurité, par exemple pour identifier automatiquement un individu se trouvant sur des images de vidéosurveillance. Mais là encore, on est loin de la précision de l'ADN. Selon Jean-Gabriel Ganascia, "ces techniques sont incertaines et commettent beaucoup d'erreurs. La reconnaissance faciale ne marche que dans des conditions très précises. On ne peut pas reconnaître quelqu'un dans une foule, c'est illusoire."

Alors, Minority Report, c'est pour bientôt ? Techniquement, nous en sommes loin, notamment parce que la plupart des systèmes de police prédictive savent dire où et quand un crime va se produire, mais pas encore qui en sera l'auteur. C'est cette identification qui donne lieu à une arrestation avant même que le crime soit commis dans Minority Report. Espérons que même si nous avions un jour cette capacité, elle ne pourrait jamais servir de preuve pour arrêter ou condamner quelqu'un, puisque aucun méfait n'a encore été commis. Sauf si on vit dans un pays comme la Chine, où l'Etat de droit n'existe pas et les procès arbitraires sont légions. Le pays a demandé à l'une de ses entreprises de défense de développer un système qui analysera les habitudes, le comportement en ligne, le métier, les hobbies ou encore les finances - des données déjà collectées par un vaste système de surveillance - des ses citoyens pour prédire des actes terroristes. On tremble en imaginant tous les abus qui pourraient découler des ce genre de systèmes, s'inquiète Jean-Gabriel Ganascia. Si on a fait quelque chose qui n'est pas dans la norme, il pourrait y avoir des conséquences. Il sera extrêmement important à l'avenir de poser les limites de ces analyses prédictives."

Retrouvez la série SECTION ZERO diffusée tous les Lundi à 21H00 sur Canal+ (Rendez-vous sur le site)