Utilisation de l’intelligence artificielle par la police : 2021 en revue

Il y a des décennies, en imaginant les utilisations pratiques de l’intelligence artificielle, les auteurs de science-fiction imaginaient des esprits numériques autonomes qui pourraient servir l’humanité. Bien sûr, parfois un PAGE 9000 ou WOPR renverserait les attentes et deviendrait un voyou, mais c’était tout à fait involontaire, n’est-ce pas ?

Et pour de nombreux aspects de la vie, l’intelligence artificielle tient ses promesses. L’IA est, au moment où nous parlons, à la recherche de preuves de vie sur Mars. Les scientifiques utilisent l’IA pour essayer de développer plus précis et plus rapide moyens de prévoir la météo.

Mais en ce qui concerne le maintien de l’ordre, la réalité de la situation est beaucoup moins optimiste. Notre HAL 9000 n’affirme pas ses propres décisions sur le monde à la place, les programmes qui prétendent utiliser l’IA pour la police juste réaffirmer, justifier et légitimer les opinions et les actions déjà entreprises par les services de police.

L’IA pose deux problèmes : technologie-lavage, et une boucle de rétroaction classique. Le lavage technologique est le processus par lequel les partisans des résultats peuvent défendre ces résultats comme étant impartiaux car ils sont dérivés des mathématiques. Et la boucle de rétroaction est la façon dont ces mathématiques continuent de perpétuer des résultats néfastes historiquement enracinés. Le problème de l’utilisation d’algorithmes basés sur l’apprentissage automatique est que si ces systèmes automatisés sont alimentés d’exemples de justice biaisée, ils finiront par perpétuer ces mêmes biais, comme un note du philosophe des sciences.

Bien trop souvent, l’intelligence artificielle dans la police est alimentée par les données collectées par la police et ne peut donc prédire la criminalité que sur la base des données des quartiers que la police contrôle déjà. Mais les données sur la criminalité sont notoirement inexact, Ainsi, l’IA policière passe non seulement à côté du crime qui se produit dans d’autres quartiers, mais renforce l’idée que les quartiers où ils sont déjà sur-policés sont exactement les quartiers vers lesquels la police a raison de diriger les patrouilles et la surveillance.

La façon dont la technologie de l’IA lave les données injustes créées par un système de justice pénale injuste devient de plus en plus évidente.

En 2021, nous avons eu un meilleur aperçu de ce que signifie réellement la police basée sur les données. Une enquête menée par Gizmodo et The Markup a montré que le logiciel qui a mis PredPol, maintenant appelé Geolitica, sur la carte prédit de manière disproportionnée ce crime sera commis dans des quartiers habités par des gens de la classe ouvrière, des personnes de couleur et des Noirs en particulier. Tu peux lire ici sur l’analyse technique et statistique qu’ils ont effectuée afin de montrer comment ces algorithmes perpétuent les disparités raciales dans le système de justice pénale.

Rapports Gizmodo que, pour les 11 départements qui ont fourni des données sur les arrestations, nous avons constaté que les taux d’arrestations dans les zones prévues restaient les mêmes, que PredPol ait prédit un crime ce jour-là ou non. En d’autres termes, nous n’avons pas trouvé de corrélation forte entre les arrestations et les prédictions. C’est précisément pourquoi la police dite prédictive ou tout autre système de police basé sur les données ne doit pas être utilisé. La police patrouille dans les quartiers habités principalement par des personnes de couleur, ce qui signifie que ce sont les endroits où ils procèdent aux arrestations et rédigent des citations. L’algorithme prend en compte ces arrestations et détermine que ces zones sont susceptibles d’être le témoin de crimes à l’avenir, justifiant ainsi une forte présence policière dans les quartiers noirs. Et ainsi le cycle continue à nouveau.

Cela peut se produire avec d’autres technologies qui reposent sur l’intelligence artificielle, comme la détection acoustique des coups de feu, qui peut envoyer des alertes de faux positifs à la police signifiant la présence de coups de feu.

Cette année, nous avons également appris qu’au moins une société dite d’intelligence artificielle qui a reçu des millions de dollars et des quantités incalculables de données gouvernementales de l’État de l’Utah n’a pas pu livrer sur leurs promesses d’aider à diriger les forces de l’ordre et les services publics vers les zones à problèmes.

C’est précisément pourquoi un certain nombre de villes, dont Sainte Croix et La Nouvelle Orléans, ont interdit l’utilisation par le gouvernement de programmes de police prédictive. En tant que maire de Santa Cruz dit à l’époque, Si nous avons des préjugés raciaux dans la police, cela signifie que les données qui entrent dans ces algorithmes sont déjà intrinsèquement biaisées et auront des résultats biaisés, il n’a donc aucun sens d’essayer d’utiliser la technologie lorsque la probabilité que cela se passe négativement l’impact des communautés de couleur est apparent.

L’année prochaine, la lutte contre l’utilisation irresponsable par la police de l’intelligence artificielle et de l’apprentissage automatique se poursuivra. L’EFF continuera à soutenir les gouvernements locaux et étatiques dans leur lutte contre la police dite prédictive ou basée sur les données.

Cet article fait partie de notre série Bilan de l’année. Lisez d’autres articles sur la lutte pour les droits numériques en 2021.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite