Au nom de la sécurité, la France prévoit de surveiller les foules à l’aide d’IA et d’algorithmes pendant les JO de Paris
De l’installation de 15 000 caméras biométriques à Doha pour surveiller le comportement des fans de football lors de la Coupe du monde 2022, à l’introduction par l’Iran en avril dernier de caméras dans les espaces publics pour identifier et punir les femmes ne portant pas le hijab, à l’utilisation par Israël de la reconnaissance faciale pour surveiller les Palestiniens à Hébron et à Jérusalem-Est, les gouvernements utilisent de plus en plus la technologie de surveillance de masse pour soutenir l’application de la loi à des fins de sécurité.
Même les pays auparavant considérés comme plus respectueux des libertés civiles adoptent de plus en plus de nouveaux systèmes de surveillance. En mars 2023, par exemple, la France a ouvert la porte à l’utilisation expérimentale d’une nouvelle technologie controversée en votant un article de la proposition de loi sur les Jeux olympiques et paralympiques de 2024. Cet article autorise l’expérimentation de la vidéosurveillance algorithmique et automatisée (SVA) sur tous les événements sportifs, récréatifs et culturels de plus de 300 participants jusqu’au 31 mars 2025. La loi a été promulguée le 19 mai 2023 et l’expérimentation peut ainsi commencer.
Selon le libellé des articles, les images obtenues auront pour seul but de détecter en temps réel, des événements prédéterminés susceptibles de montrer ou de révéler ces risques et de les signaler. L’article augmente considérablement les capacités de surveillance des gouvernements avec un logiciel capable d’analyser les images fournies par des caméras ou des drones. Si l’intelligence artificielle (IA) détecte certains mouvements ou comportements de foule qu’elle a été entraînée à identifier comme anormaux, elle est capable d’envoyer des alertes aux autorités compétentes.
Les défenseurs de la loi, dont la journaliste des commissions des lois, la sénatrice Agns Canayer, soutiennent que l’ampleur exceptionnelle de l’événement et les risques de sécurité associés justifient ce type de système. Cet événement rassemblera un très grand nombre de personnes dans des espaces confinés et nécessitera des mesures de sécurité renforcées pour faire face aux nombreuses menaces cyber et terroristes qui restent bien réelles dans notre pays, raconte-t-elle Temps égaux.
Selon Canayer, le juste équilibre doit être trouvé entre les risques sécuritaires et la restriction des libertés civiles. Le sénateur affirme que de nombreux garde-fous ont été mis en place pour prévenir les abus, comme le soutien à la création d’algorithmes par la Commission Nationale de l’Informatique et des Libertés (CNIL), une autorité administrative française indépendante . Canayer soutient également que l’AVS ne restera qu’un outil d’aide à la décision humaine.
L’introduction d’une telle technologie représente néanmoins une première sur le continent européen. Dans une lettre ouverte, 38 organisations de la société civile européenne affirment que l’utilisation généralisée de la vidéosurveillance basée sur des algorithmes présente un risque important pour les libertés individuelles et les libertés civiles et viole le droit international des droits de l’homme.
Les Jeux olympiques sont-ils un prétexte à une surveillance généralisée de l’espace public ?
L’histoire contemporaine a montré que l’évolution des technologies de surveillance de masse est difficile à inverser. Ils ont une façon de devenir progressivement le statu quo et le public n’a guère d’autre choix que de les accepter.
L’informatisation des services administratifs dans les années 1970 a entraîné un premier changement d’échelle dans la collecte, le traitement et le stockage des données personnelles. Les développements technologiques qui ont suivi au cours des années 1990, notamment les réseaux Internet, le système de positionnement global (GPS) et les caméras de vidéosurveillance, ont donné aux gouvernements et aux entreprises des outils efficaces pour garder un œil toujours plus attentif sur le public.
Selon Guilhem Giraud, ancien ingénieur à la Direction de la Surveillance du Territoire (DST, aujourd’hui Direction Générale de la Sécurité Intérieure, ou Direction Générale de la Sécurité Intérieure, DGSI) et auteur du livre Confidences d’un Agent du Renseignement Français (Confessions d’un agent de renseignement français), les attentats du 11 septembre 2001 aux États-Unis ont marqué un tournant majeur dans la standardisation et l’acquisition des technologies de surveillance. Le Patriot Act, voté à la quasi-unanimité par le Congrès américain, permettait aux opérateurs de télécommunications américains de collecter à la fois des données techniques, servant à identifier les conversations, et des données directement associées au contenu des conversations. Cela a conduit aux abus révélés plus tard par Edward Snowden, ancien sous-traitant de la Central Intelligence Agency (CIA) et de la National Security Agency (NSA).
En France, les attentats terroristes de 2015 ont conduit à l’instauration d’un état d’urgence (un régime juridique accordant des pouvoirs en cas de circonstances exceptionnelles), qui a duré deux ans. Cela a abouti à une longue série de lois sur la sécurité, dont beaucoup ont été jugées oppressives au regard du droit international, et dont beaucoup de dispositions ont été progressivement incorporées dans le droit commun.
Les raisons avancées par les législateurs qui votent les lois sur la sécurité intérieure et la surveillance, et le contexte dans lequel ces lois sont votées, doivent donc être pris en compte.
Les Jeux olympiques ne sont qu’un prétexte pour voter une législation autrement inacceptable pour le public, estime Bastien Le Querrec, avocat et membre de La Quadrature du Net, une association française de défense des libertés à l’ère du numérique. Ces événements constituent un pas de plus vers la surveillance généralisée de l’espace public.
Cela s’est déjà vu au Japon, qui a autorisé la surveillance du personnel accrédité via la reconnaissance faciale automatisée pour les Jeux olympiques de 2020 (finalement tenus à l’été 2021). La Coupe d’Afrique des Nations 2019 qui s’est tenue en Égypte a également été l’occasion pour le régime autoritaire du maréchal Abdel Fattah el-Sissi de déployer des drones équipés de caméras de reconnaissance faciale pour surveiller les supporters de football politiquement conscients.
Changements de nature et d’échelle
Tout comme l’informatisation a marqué un tournant, l’intégration de l’IA dans la vidéosurveillance représente une nouvelle transition dans la surveillance de masse des populations civiles.
Selon Le Querrec, il y a eu un véritable changement dans la nature et l’échelle des systèmes de surveillance : L’utilisation d’algorithmes dans la vidéosurveillance signifie que le comportement de toute personne filmée dans un espace public sera constamment analysé. Selon Quadrature du Net, l’AVS est capable d’identifier certains types de silhouettes, d’attributs physiques, d’allures et de comportements chez les individus. Alors que de nombreuses associations jugent ces données trop sensibles, les défenseurs des lois affirment qu’elles ne sont pas biométriques, car elles n’identifient pas les individus par leur nom. Or, alors que la biométrie et la reconnaissance faciale ont été exclues de la loi JO 2024, un autre projet de loi a déjà été approuvé par le Sénat le 12 juin qui pourrait ouvrir la voie à une éventuelle utilisation en cas de menaces graves.
Néanmoins, d’un point de vue sociologique, les implications d’une surveillance élargie permanente par les gouvernements sont importantes. Des recherches menées au Zimbabwe ont montré qu’elle conduit à un lissage du comportement et des interactions humaines, ce qui peut décourager l’exercice légitime des libertés civiles et des libertés individuelles. Le Conseil de l’Europe a également dénoncé cet effet paralysant, notamment à travers l’utilisation du logiciel espion Pegasus par certains membres de l’UE.
Selon Le Querrec, l’introduction d’algorithmes dans la vidéosurveillance est un choix politique qui dépolitise in fine la prise de décision des collectivités territoriales. En France, par exemple, la Régie autonome des transports parisiens (RATP) a effectué des tests utilisant ce type de technologie et a conclu qu’elle n’était pas encore en mesure d’identifier efficacement certains types de comportements suspects indiquant une intention de commettre un crime et a plutôt abouti à des faux positifs. Cependant, les fabricants d’équipements continuent d’affirmer que leurs produits peuvent identifier avec précision de tels comportements.
On sait très bien que les autorités cherchent à identifier les mendiants. Autoriser la détection du vagabondage comme intention de commettre un crime, c’est dépolitiser la manière dont les pauvres sont traqués, dit Le Querrec.
L’utilisation de la technologie de surveillance automatisée est d’autant plus controversée qu’il existe très peu d’études sur son efficacité. Au contraire, de nombreux rapports d’organisations de défense des droits humains comme Amnesty International ont montré comment la reconnaissance faciale gouvernementale a un impact disproportionné sur les personnes racialisées, comme cela a été le cas à New York. Ils courent un plus grand risque d’être mal identifiés en raison de données de référence incomplètes et font donc l’objet de plus d’arrestations injustifiées.
À ce jour, les gouvernements n’ont pas démontré qu’ils sont capables d’utiliser ces technologies sans enfreindre les droits de l’homme, ni que les mêmes objectifs ne peuvent être atteints par des moyens moins intrusifs. La proportionnalité de ces mesures par rapport à leurs risques est un véritable problème, déclare Mher Hakobyan, conseiller d’Amnesty International pour la réglementation de l’IA.
Un marché en plein essor et un début de réglementation ?
Malgré les nombreux risques associés à la vidéosurveillance basée sur des algorithmes, le marché de ce type de technologie est en plein essor. Encouragés par les multinationales de la sécurité et les lobbies spécialisés, de nombreux gouvernements mettent en place de tels systèmes sans base juridique solide. Dans son dernier rapport, l’association European Digital Rights (EDRi) identifie une augmentation choquante de l’utilisation illégale de la surveillance biométrique de masse en Allemagne, aux Pays-Bas et en Pologne, notamment suite aux mesures mises en place lors de la crise sanitaire 2020-2022.
Face à cet engouement pour les nouvelles technologies de surveillance de masse, Giraud met en garde les gouvernements contre le techno-solutionnisme. Lorsque vous vous engagez dans une surveillance de masse, vous noyez des informations utiles dans une mer de données et les algorithmes sont submergés. Les autorités feraient mieux d’investir dans des technologies de surveillance ciblées, qui seront beaucoup plus efficaces, estime Giraud.
Alors que l’Union européenne est en train de rédiger une législation révolutionnaire pour réglementer les utilisations néfastes de l’intelligence artificielle par le biais de la loi sur l’intelligence artificielle, Hakobyan nous rappelle l’importance de la mobilisation et de l’action citoyenne pour contrer l’introduction de cette technologie.
Avec la loi sur l’IA, l’UE aura un impact sur le reste du monde. Les gens oublient souvent le pouvoir qu’ils ont d’influencer le libellé final d’une loi, raconte Hakobyan Temps égaux. Par exemple, s’adresser directement aux représentants nationaux est quelque chose que les citoyens peuvent faire pour changer la législation.