#image_title

Des caméras IA alimentées par Amazon utilisées pour détecter les émotions des passagers des trains britanniques involontaires

Network Rail n’a pas répondu aux questions sur les essais envoyés par WIRED, y compris aux questions sur l’état actuel de l’utilisation de l’IA, la détection des émotions et les problèmes de confidentialité.

Nous prenons la sécurité du réseau ferroviaire extrêmement au sérieux et utilisons une gamme de technologies avancées dans nos gares pour protéger les passagers, nos collègues et l’infrastructure ferroviaire contre la criminalité et d’autres menaces, a déclaré un porte-parole de Network Rail. Lorsque nous déployons des technologies, nous travaillons avec la police et les services de sécurité pour garantir que des mesures proportionnées sont prises, et nous respectons toujours la législation en vigueur concernant l’utilisation des technologies de surveillance.

On ne sait pas exactement dans quelle mesure l’analyse de détection des émotions a été déployée, les documents indiquant parfois que le cas d’utilisation doit être considéré avec plus de prudence et les rapports des stations indiquant qu’il est impossible de valider l’exactitude. Cependant, Gregory Butler, PDG de la société d’analyse de données et de vision par ordinateur Purple Transform, qui a travaillé avec Network Rail sur les essais, affirme que la fonctionnalité a été interrompue pendant les tests et qu’aucune image n’a été stockée lorsqu’elle était active.

Les documents de Network Rail sur les essais d’IA décrivent plusieurs cas d’utilisation impliquant la possibilité pour les caméras d’envoyer des alertes automatisées au personnel lorsqu’elles détectent certains comportements. Aucun des systèmes n’utilise une technologie controversée de reconnaissance faciale, qui vise à faire correspondre l’identité des personnes à celles stockées dans les bases de données.

L’un des principaux avantages est la détection plus rapide des incidents d’intrusion, explique Butler, qui ajoute que le système d’analyse de son entreprise, SiYtE, est utilisé sur 18 sites, y compris les gares et le long des voies ferrées. Au cours du mois dernier, dit Butler, il y a eu cinq cas graves d’intrusion détectés par les systèmes sur deux sites, notamment un adolescent ramassant une balle sur les pistes et un homme passant plus de cinq minutes à ramasser des balles de golf le long d’une ligne à grande vitesse. .

À la gare de Leeds, l’une des plus fréquentées en dehors de Londres, il y a 350 caméras de vidéosurveillance connectées à la plateforme SiYtE, explique Butler. Les analyses sont utilisées pour mesurer le flux de personnes et identifier des problèmes tels que l’encombrement des plates-formes et, bien sûr, les intrusions là où la technologie peut filtrer les travailleurs à travers leur uniforme EPI, dit-il. L’IA aide les opérateurs humains, qui ne peuvent pas surveiller toutes les caméras en permanence, à évaluer et à résoudre rapidement les risques et les problèmes de sécurité.

Les documents de Network Rail affirment que les caméras utilisées dans une gare, Reading, ont permis à la police d’accélérer les enquêtes sur les vols de vélos en étant capable d’identifier les vélos dans les images. Il a été établi que, même si les analyses ne pouvaient pas détecter avec certitude un vol, elles pouvaient néanmoins détecter une personne avec un vélo, selon les fichiers. Ils ajoutent également que les nouveaux capteurs de qualité de l’air utilisés dans les essais pourraient permettre au personnel de gagner du temps en effectuant des contrôles manuels. Une instance d’IA utilise les données des capteurs pour détecter la transpiration des sols, devenus glissants à cause de la condensation, et alerter le personnel lorsqu’ils doivent être nettoyés.

Bien que les documents détaillent certains éléments des essais, les experts en matière de protection de la vie privée se disent préoccupés par le manque général de transparence et de débat sur l’utilisation de l’IA dans les espaces publics. Dans un document conçu pour évaluer les problèmes de protection des données avec les systèmes, Hurfurt de Big Brother Watch affirme qu’il semble y avoir une attitude dédaigneuse envers les personnes susceptibles d’avoir des problèmes de confidentialité. Une question se pose : certaines personnes sont-elles susceptibles de s’y opposer ou de trouver cela intrusif ? Un membre du personnel écrit : Généralement, non, mais il n’y a pas de comptabilité pour certaines personnes.

Dans le même temps, des systèmes de surveillance similaires utilisant l’IA, qui utilisent cette technologie pour surveiller les foules, sont de plus en plus utilisés dans le monde. Lors des Jeux Olympiques de Paris en France plus tard cette année, la vidéosurveillance par IA surveillera des milliers de personnes et tentera de détecter les afflux de foule, l’utilisation d’armes et les objets abandonnés.

Les systèmes qui n’identifient pas les personnes sont meilleurs que ceux qui le font, mais je crains une pente glissante, déclare Carissa Vliz, professeure agrégée de psychologie à l’Institut d’éthique de l’IA de l’Université d’Oxford. Vliz souligne des essais d’IA similaires dans le métro de Londres qui avaient initialement flouté les visages de personnes qui auraient pu éviter les tarifs, mais qui avaient ensuite changé d’approche, en supprimant le flou des photos et en conservant les images plus longtemps que prévu initialement.

Il existe une volonté très instinctive d’étendre la surveillance, explique Vliz. Les êtres humains aiment voir plus, voir plus loin. Mais la surveillance conduit au contrôle, et le contrôle à une perte de liberté qui menace les démocraties libérales.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite