Les plans d’Axons Taser-Drone provoquent la démission du comité d’éthique de l’IA
La vraie déception, dit Calo, n’est pas que l’entreprise n’ait pas fait exactement ce que le conseil d’administration lui avait conseillé. C’est qu’Axon a annoncé ses projets de drones Taser avant que le conseil d’administration ne puisse détailler pleinement son opposition. Tout à coup, de nulle part, l’entreprise a décidé d’abandonner ce processus, dit-il. C’est pourquoi c’est si décourageant.
Il a du mal à imaginer que la police ou le personnel qualifié d’une école possède la conscience de la situation pour utiliser judicieusement un drone Taser. Même si un opérateur de drone réussissait à sauver la vie de suspects ou de personnes appartenant à des communautés marginalisées ou vulnérables, la technologie ne resterait pas là.
Je pense qu’il y aura un glissement de mission, et qu’ils commenceront à l’utiliser dans de plus en plus de contextes, et je pense que l’annonce par Axon de l’utiliser dans un contexte complètement différent en est la preuve, dit Calo. Une situation où il y a des caméras omniprésentes et des Tasers déployés à distance n’est pas un monde dans lequel je veux vivre. Point final.
Axons est le dernier comité d’éthique externe de l’IA à entrer en conflit avec sa société de technologie associée. Google a convoqué et dissous un groupe consultatif sur l’éthique de l’IA en environ une semaine en 2019. Ces panels fonctionnent souvent sans structure claire au-delà de demander aux membres de signer un accord de non-divulgation, et les entreprises peuvent les utiliser pour signaler la vertu plutôt que pour apporter une contribution substantielle, déclare Cortnie Abercrombie, fondateur de l’association à but non lucratif AI Truth. Son organisation recherche actuellement les meilleures pratiques pour l’éthique de l’IA en entreprise.
Dans l’affaire Axons, plusieurs membres du comité d’éthique de l’IA qui ont parlé avec WIRED ont déclaré que la société avait un dossier d’écoute de leurs suggestions, y compris dans une décision de 2019 de ne pas déployer la reconnaissance faciale sur les caméras corporelles. Cela a rendu l’annonce soudaine du drone Taser d’autant plus choquante.
Il y a généralement des conflits dans les entreprises entre les personnes qui comprennent les risques et les limites d’une technologie et celles qui veulent faire des produits et des profits, explique Wael AbdAlmageed, informaticien à l’Université de Californie du Sud qui a démissionné du comité d’éthique d’Axon AI. Si des entreprises comme Axon veulent prendre au sérieux l’éthique de l’IA, dit-il, le rôle de ces conseils ne peut plus être consultatif.
Si le comité d’éthique de l’IA déclare que cette technologie est problématique et que l’entreprise ne devrait pas développer de produits, alors elle ne devrait pas. Je sais que c’est une proposition difficile, mais je pense vraiment que c’est comme ça qu’il faut faire, dit-il. Nous avons vu des problèmes chez Google et d’autres entreprises pour les personnes qu’ils ont embauchées pour parler de l’éthique de l’IA.
Le comité d’éthique de l’IA a tenté de persuader Axon qu’il devrait être sensible aux communautés touchées par ses produits, dit Friedman, plutôt qu’à la police qui les achète. L’entreprise a créé un comité consultatif communautaire, mais Friedman dit que tant que les comités d’éthique de l’IA ne trouveront pas comment impliquer les communautés locales dans le processus d’approvisionnement, les fournisseurs de technologies policières continueront de jouer avec la police.
Quatre membres du comité d’éthique d’AI n’ont pas signé la lettre de démission. Ils comprennent l’ancien chef de la police de Seattle, Carmen Best, l’ancien chef de la police de Los Angeles, Charlie Beck, et l’ancien commissaire de la California Highway Patrol, Warren Stanley.