La quête sans fin pour prédire la criminalité à l’aide de l’IA
Et alors que les États-Unis sont confrontés à des taux croissants de crimes violents, un autre projet de recherche a vu le jour : un groupe de scientifiques de l’Université de Chicago a dévoilé un algorithme le mois dernier, se vantant dans un communiqué de presse de sa capacité à prédire le crime avec une précision de 90 %.
L’algorithme identifie les emplacements dans les grandes villes qui, selon lui, présentent une forte probabilité que des crimes, tels que des homicides et des cambriolages, se produisent la semaine prochaine. Le logiciel peut également évaluer la variation des services de police entre les quartiers de huit grandes villes des États-Unis, dont Chicago, Los Angeles et Philadelphie.
Mais l’utilisation de l’intelligence artificielle pour diriger les forces de l’ordre sonne l’alarme pour de nombreux spécialistes de la justice sociale et des criminologues, qui citent une longue histoire d’une telle technologie suggérant injustement une augmentation de la police des Noirs et des Latinos. Même l’un des auteurs de l’étude reconnaît que la capacité d’un algorithme à prédire la criminalité est limitée.
Le passé ne vous dit rien sur l’avenir, a déclaré Ishanu Chattopadhyay, professeur à l’Université de Chicago et chercheur principal de l’algorithme. La question est : dans quelle mesure le passé influence-t-il réellement le futur ? Et dans quelle mesure les événements sont-ils spontanés ou véritablement aléatoires ? Notre capacité de prédiction est limitée par cela.
La police utilise depuis longtemps tous les outils disponibles pour prédire la criminalité. Avant les progrès technologiques, les flics se blottissaient dans les salles de conférence et plaçaient des épingles d’incidents criminels sur une carte, espérant que les grappes les aideraient à déterminer où ils devraient regarder ensuite.
Au cours des 15 dernières années, les plus grands services de police du pays, tels que New York, Los Angeles et Chicago, ont commencé à réfléchir à des moyens d’utiliser l’intelligence artificielle non seulement pour analyser le crime, mais aussi pour le prédire. Ils se sont souvent tournés vers des sociétés d’analyse de données telles que PredPol et Palantir, qui créent des logiciels que les forces de l’ordre peuvent utiliser pour prévoir la criminalité.
Les outils de police prédictive sont construits en fournissant des données telles que des rapports de crime, des dossiers d’arrestation et des images de plaques d’immatriculation à un algorithme, qui est formé pour rechercher des modèles pour prédire où et quand un certain type de crime se produira à l’avenir.
Mais les algorithmes ne sont aussi bons que les données qu’ils reçoivent, ce qui est un problème en particulier pour les personnes aux États-Unis, a déclaré Vincent Southerland, codirecteur de la faculté du New York Universitys Center on Race, Inequality and the Law.
Historiquement, les données de la police aux États-Unis sont biaisées, selon Southerland. Les flics sont plus susceptibles d’arrêter ou d’accuser quelqu’un d’un crime dans les quartiers à faible revenu dominés par des personnes de couleur, une réalité qui ne reflète pas nécessairement où le crime se produit, mais où les flics passent leur temps.
Cela signifie que la plupart des ensembles de données sur l’activité criminelle surreprésentent les personnes de couleur et les quartiers à faible revenu. L’introduction de ces données dans un algorithme l’amène à suggérer qu’il y a plus d’activités criminelles dans ces zones, créant une boucle de rétroaction biaisée sur le plan racial et socio-économique, a ajouté Southerland.
Vous avez des données infectées ou entachées par un biais et ce biais va apparaître de l’autre côté de l’analyse, a-t-il déclaré. Vous en sortez, ce que vous y mettez.
Dans le monde réel, les logiciels de police prédictive ont causé des problèmes importants.
En 2019, le département de police de Los Angeles a suspendu son programme de prédiction de la criminalité, LASER, qui utilisait des données historiques sur la criminalité pour prédire les points chauds de la criminalité et le logiciel Palantir pour attribuer des scores de risque criminel aux personnes, après qu’un audit interne a montré que cela avait conduit la police à soumettre injustement les Noirs et les Latinos. les gens à plus de surveillance.
À Chicago, la police a utilisé un logiciel de police prédictive de l’Illinois Institute of Technology pour créer une liste des personnes les plus susceptibles d’être impliquées dans un crime violent. Une étude de RAND et une enquête ultérieure du Chicago Sun-Times ont montré que le logiciel incluait sur la liste chaque personne arrêtée ou prise d’empreintes digitales à Chicago depuis 2013. Le programme a été abandonné en 2020.
Les algorithmes de police prédictive ne sont pas une boule de cristal, a déclaré John S. Hollywood, chercheur opérationnel principal à RAND, qui a aidé à auditer l’utilisation des algorithmes prédictifs par les services de police de Chicago. Il est préférable d’examiner de manière plus holistique ce qui se passe en termes de choses spécifiques dans ma communauté qui conduisent à des crimes en ce moment.
Chattopadhyay a déclaré que le logiciel de son équipe avait été conçu en connaissant le passé troublé des algorithmes.
Lors de la création de l’algorithme, l’équipe de Chattopadhyays a segmenté les grandes villes en pâtés de maisons de 1 000 pieds carrés et a utilisé les données sur la criminalité urbaine des trois à cinq dernières années pour l’entraîner. L’algorithme indique s’il existe un risque élevé ou faible de criminalité dans un segment à un moment donné, jusqu’à une semaine dans le futur.
Pour limiter les biais, l’équipe a omis les données sur la criminalité telles que les arrestations de marijuana, les contrôles routiers ou les délits mineurs de bas niveau, car les recherches montrent que les Noirs et les Latinos sont plus souvent ciblés pour ces types d’infractions. Au lieu de cela, ils ont donné à l’algorithme des données sur les homicides, les agressions et les coups et blessures, ainsi que sur les crimes contre les biens comme les cambriolages et les vols de véhicules à moteur.
Mais le point principal de l’étude, a-t-il dit, était d’utiliser l’algorithme pour interroger la façon dont la police est biaisée. Son équipe a comparé les données sur les arrestations dans des quartiers de différents niveaux socio-économiques. Ils ont découvert que les crimes commis dans les zones les plus riches entraînaient davantage d’arrestations, alors que dans les quartiers les plus pauvres, les crimes n’avaient pas toujours le même effet, ce qui montrait un écart dans l’application des lois.
Chattopadhyay a déclaré que ces résultats aident à fournir des preuves aux personnes qui se plaignent que les forces de l’ordre ignorent les quartiers les plus pauvres lorsqu’il y a un pic de crimes violents ou contre les biens. Cela vous permet de quantifier cela, a-t-il dit. Pour montrer les preuves.
Arvind Narayanan, professeur d’informatique à l’Université de Princeton, a déclaré que le communiqué de presse de l’étude et les articles de presse à ce sujet ne se concentraient pas suffisamment sur la tentative d’étude d’enquêter sur les biais dans l’application de la loi sur la criminalité policière et surestimaient les allégations d’exactitude des algorithmes.
Pour la police prédictive, un seul chiffre de précision est totalement insuffisant pour évaluer si un outil est utile ou juste, a-t-il déclaré. Le crime est rare, il est donc probable que la plupart des prédictions de crime soient de faux positifs.
Les spécialistes de la justice pénale, les experts de la police et les technologues notent que même si un algorithme est précis, il peut toujours être utilisé par les forces de l’ordre pour cibler les personnes de couleur et celles vivant dans les quartiers les plus pauvres pour une surveillance et un contrôle injustifiés.
Andrew Papachristos, professeur de sociologie à la Northwestern University, a déclaré que lorsque les forces de l’ordre utilisent des algorithmes pour cartographier et analyser la criminalité, elles soumettent souvent les personnes de couleur et les communautés à faible revenu à davantage de maintien de l’ordre. Lorsqu’ils sont critiqués pour une surveillance excessive dans certains quartiers, ils utilisent souvent des données pour justifier leurs tactiques, a-t-il déclaré.
Papachristos a déclaré que si les groupes communautaires pouvaient utiliser les outils à la place pour déterminer où fournir plus de services sociaux, accroître l’engagement communautaire et traiter les causes sociales profondes de la violence, ce serait une meilleure utilisation de la technologie. Cependant, a-t-il dit, il est peu probable que cela se produise car les organisations qui font ce travail sont à court d’argent et sceptiques quant à l’utilisation des données.
Ils ont vu des données utilisées à mauvais escient contre eux devant les tribunaux. Ils l’ont vu pour l’utiliser pour profiler des individus, a-t-il dit. Donc, si quelqu’un arrive comme moi et dit, Hé, nous voulons vous aider à utiliser les données. Ce n’est pas un genre immédiat, Oh mon Dieu, merci. C’est comme, quelles données utilisez-vous ?
Hollywood, de la RAND Corporation, a accepté. Il a dit que pour vraiment réduire la criminalité, les services de police doivent travailler en tandem avec les travailleurs sociaux et les groupes communautaires pour résoudre les problèmes d’éducation, de logement et d’engagement civique.
[Algorithms] sont un objet brillant et brillant, a-t-il dit. Ces choses ont tendance à être des distractions.