Enquête

Prédiction des crimes : des algorithmes et des fausses notes

31 octobre 2022
Par Florence Santrot
Prédiction des crimes : des algorithmes et des fausses notes
©tsyklon/Shutterstock

Selon des scientifiques, il est possible de prédire des délits à partir de calculs complexes s’appuyant sur des données passées. Pour autant, la fiabilité – et l’intérêt – de ces algorithmes est régulièrement remise en cause.

En juin dernier, des chercheurs de l’université de Chicago ont publié un article dans Nature Human Behavior pour présenter leur algorithme, capable selon eux de prédire de futurs crimes avec une très grande fiabilité, mais aussi de mettre en exergue des biais systémiques dans la répression du crime. Ils ont testé la précision du modèle dans huit grandes villes américaines en divisant les métropoles en une multitude de zones d’une surface de deux pâtés de maison environ (rayon de 300 m).

L’équipe scientifique a commencé par Chicago et analysé les données historiques sur les crimes violents et les cambriolages, ainsi que les fluctuations dans le temps pour prédire les événements. Résultat : selon leurs conclusions, l’algorithme est capable de prédire des crimes avec une précision d’environ 90 % à Chicago. Ils ont ensuite appliqué cette méthodologie, avec peu ou prou le même taux de succès, dans sept autres villes américaines : Atlanta, Austin, Détroit, Los Angeles, Philadelphie, Portland et San Francisco. Le principe de l’algorithme prédictif reste toutefois très controversé.

La quête de l’algorithme parfait depuis les années 1980

Depuis très longtemps, bien avant le film Minority Report de Steven Spielberg, d’ailleurs, les autorités ont cherché à trouver des solutions pour anticiper les crimes et, éventuellement, les éviter. Depuis les années 1980, avec le développement de l’informatique, les algorithmes sont entrés en lice. À cette époque, le criminologue britannique Ken Pease a remarqué que « la plupart des cambriolages se répètent sur un petit nombre de victimes ». Partant de ce principe, des scientifiques ont cherché à utiliser les données des délits passés pour prédire les zones les plus à risque, appelés aussi hotspots.

« L’intérêt de l’IA serait de venir en soutien [aux forces de l’ordre] pour prédire la possibilité d’homicides dans les villes. »

Pr. Ishanu Chattopadhyay

Certes, les algorithmes peuvent identifier des zones où la criminalité a été forte par le passé et où il est donc possible qu’elle le soit encore demain. Le problème est que ces données mettent aussi en lumière d’importants biais systémiques de la part des autorités. Il a été établi que les modèles cherchant à prédire le crime avant qu’il ne se produise manquent en fait de précision et renforcent les préjugés. C’est par exemple le cas de l’algorithme de la société PredPol, qui a été largement remis en cause. Utilisé un temps par la police de Los Angeles (LAPD), le collectif Stop LAPD Spying a révélé suite à une étude que « lorsque la police cible une zone, elle génère davantage de rapports criminels et d’arrestations à cet endroit. Les données sur la criminalité qui en découlent conduisent l’algorithme à rediriger la police vers la même zone. »

PredPol a été pensé dans le but de prédire, grâce à l’intelligence artificielle et de longues années de données compilées, la survenue de crimes jusqu’à 12 heures avant que les faits ne se produisent. Le hic ? Ce logiciel ne faisait que renforcer les a priori des forces de police. Pire, il s’est finalement révélé incapable d’avoir un impact sur la réduction de la criminalité !

Des biais raciaux et… l’impossibilité de prédire l’avenir

Bien qu’étant capables de proposer des prédictions relativement fiables, ces algorithmes ont surtout tendance à exacerber les disparités raciales et à justifier les interventions policières récurrentes dans certaines zones. Et donc à y multiplier les arrestations. Or, les quartiers « chauds » sont déjà connus des services de police, ce n’est pas un algorithme qui va les révéler.

Un vrai cercle vicieux qui cible notamment les Afro-Américains et les Latinos aux États-Unis. Cela a été mis en lumière lorsqu’une liste secrète de la police de Chicago a été révélée au grand public. De 2012 à 2016, les autorités avaient créé une liste d’individus « à risque ». Le but était de répertorier les potentiels criminels en se basant sur le registre des arrestations de la police. En se penchant sur le détail de ce fichier, il a été établi qu’il contenait pas moins de 56 % des hommes noirs âgés de 20 à 29 ans de la ville… dont seulement 3,6 % étaient vraiment impliqués dans des faits de crime avec violence (meurtre ou usage d’une arme à feu).

« On sait, depuis Aristote, que formellement, et aujourd’hui encore, “l’incertitude n’est pas modélisable”. »

Xavier Raufer
Criminologue

L’algorithme mis au point par les scientifiques de l’université de Chicago s’évertue justement à lutter contre ces biais systémiques. Pour cela, l’intelligence artificielle ne cible pas de potentiels suspects mais des endroits « à risque », des lieux où les crimes sont susceptibles d’intervenir. Le professeur Ishanu Chattopadhyay, l’un des auteurs de l’article publié dans Nature Human Behavior, précise que « les ressources des forces de l’ordre ne sont pas infinies, donc l’intérêt de l’IA serait de venir en soutien pour prédire la possibilité d’homicides dans les villes ». Les données ont été rendues publiques afin que d’autres chercheurs puissent vérifier son raisonnement et ses conclusions. Mais, si ces nouveaux algorithmes corrigent certaines erreurs, reste la question de leur véritable utilité fondamentale.

L’abandon des algorithmes prédictifs ?

En France, le criminologue français Xavier Raufer réfute en bloc le principe des algorithmes prédictifs. « Ces histoires relèvent de l’escroquerie pure et simple. On sait, depuis Aristote, que formellement, et aujourd’hui encore, “l’incertitude n’est pas modélisable”. C’est de la physique fondamentale, nous assure-t-il. Si connaître le passé permettait de prévoir l’avenir, tout le monde gagnerait à la loterie… » Prédire un crime à une adresse précise, un jour et à une heure donnée, est chose impossible. Prédire aussi que tel individu, parce qu’il a commis un délit par le passé, va à nouveau passer à l’acte est tout aussi aléatoire, même si les statistiques peuvent donner des tendances.

Face aux différentes levées de bouclier, la police de Los Angeles a annoncé en avril 2020 l’arrêt de l’utilisation du programme informatique PredPol. Avant Los Angeles, d’autres villes (Palo Alto et Mountain View en Californie, Hagerstown dans le Maryland, le comté de Kent en Angleterre…) avaient déjà mis fin au contrat avec PredPol, faute de résultats probants. Si les autorités ne rejettent pas en bloc l’intelligence artificielle ou les algorithmes, elles sont toujours en attente d’une véritable utilité de ces outils au quotidien et de la preuve qu’ils contribuent à faire baisser la criminalité. Une partie des villes ayant abandonné PredPol ont opté depuis pour une autre stratégie : travailler en amont sur les difficultés socio-économiques dans les quartiers « à risque ». Et réduire ainsi les causes des délits.

À lire aussi

Article rédigé par
Pour aller plus loin