La France se tourne vers la surveillance alimentée par l’IA pour sécuriser les Jeux olympiques
L’Assemblée nationale française a approuvé jeudi l’utilisation de la vidéosurveillance par intelligence artificielle (IA) lors des Jeux olympiques de Paris en 2024, ignorant les avertissements des groupes de défense des droits civiques selon lesquels la technologie constituait une menace pour les libertés civiles.
Le gouvernement affirme que la vidéosurveillance algorithmique peut détecter des « événements prédéterminés », des comportements anormaux et des afflux de foules, contribuant ainsi à assurer la sécurité de millions de touristes qui devraient inonder la capitale française l’été prochain.
Avec des votes préliminaires favorables au Sénat et à l’Assemblée, les plus grands obstacles législatifs ont été levés, même s’ils pourraient être contestés devant la plus haute cour constitutionnelle.
Si elle est formellement adoptée, la France deviendrait le premier pays de l’Union européenne à légaliser la surveillance alimentée par l’IA. Cela créerait un précédent inquiétant en matière de surveillance, a déclaré la semaine dernière un groupe de plusieurs dizaines de législateurs européens.
(Pour les dernières nouvelles technologiques du jour, abonnez-vous à notre newsletter tech Todays Cache)
Justifiant la technologie, Stéphane Mazars, député du parti Renaissance du président Emmanuel Macron, a déclaré que « devant le monde entier, la France devra relever le plus grand défi sécuritaire de son histoire ».
Le projet de déploiement de la surveillance par IA a rencontré une forte résistance de groupes de défense des droits tels qu’Amnesty International et des groupes de défense des droits numériques. Ils soutiennent que la technologie constitue une menace pour les libertés civiles et trace une ligne dangereuse dans le sable.
Le texte a été voté par une marge de 59 voix contre 17, dans la chambre de 577 sièges.
Le débat en France intervient alors que l’Union européenne discute de sa propre loi sur l’IA, une législation européenne historique régissant l’utilisation de l’intelligence artificielle en Europe qui est en préparation depuis plus de deux ans.
Outre les utilisations de l’IA par les entreprises, la législation de l’UE examinera également l’IA utilisée dans le secteur public et les forces de l’ordre.
L’autorité française de protection de la vie privée, la CNIL, soutient le projet de loi du gouvernement français à la condition qu’aucune donnée biométrique ne soit traitée. Les partisans du projet de loi disent que c’est le cas, mais les spécialistes de la vie privée sont sceptiques.
« Vous pouvez faire deux choses : la détection d’objets ou l’analyse du comportement humain – cette dernière est le traitement des données biométriques », a déclaré Daniel Leufer, conseiller politique de l’organisation de défense des droits numériques Access Now, qui plaide pour l’interdiction de la collecte de données biométriques en public. espaces dans la loi sur l’IA de l’UE.
Le législateur du parti au pouvoir, Sacha Houlie, qui préside la commission des affaires juridiques du Parlement, a déclaré à la chambre basse que l’IA aurait pu aider à empêcher l’attentat de Nice de 2016 en identifiant les mouvements d’un camion utilisé pour traverser une foule comme suspects. La technologie aurait également pu aider à éviter le chaos de la foule lors de la finale de la Ligue des champions à Paris l’année dernière, a-t-il déclaré.
Le Sénat et l’Assemblée ont maintenant approuvé le texte du projet de loi. Une commission mixte cherchera un compromis sur toute différence dans le texte sur laquelle ils se sont mis d’accord lors du débat.
Leufer d’Access Now a remis en question l’utilité de l’IA pour repérer les attaquants potentiels en raison de la complexité des algorithmes de formation sur des incidents rares.
« L’IA n’est pas douée pour ce genre de choses (parce que) sur le plan technique, vous devez donner à une machine des tas d’exemples », a-t-il déclaré.
Ceci est votre dernier article gratuit.