Robo-cop : l’UE veut que les entreprises soient tenues responsables des dommages causés par l’IA

La Commission européenne a proposé mercredi de nouvelles règles qui obligeraient les fabricants de logiciels et de produits basés sur l’intelligence artificielle à indemniser les personnes lésées par leurs créations.

Une nouvelle directive sur la responsabilité en matière d’IA faciliterait les poursuites en indemnisation lorsqu’une personne ou une organisation est blessée ou subit des dommages par des drones et des robots alimentés par l’intelligence artificielle ou à cause de logiciels tels que des algorithmes d’embauche automatisés.

Les nouvelles règles donneront aux victimes de dommages causés par les systèmes d’IA une chance égale et l’accès à un procès équitable et à réparation, a déclaré le commissaire à la justice Didier Reynders aux journalistes avant la présentation des propositions.

Le projet de loi est la dernière tentative des responsables européens de réglementer l’IA et d’établir une norme mondiale pour contrôler la technologie florissante. Cela survient alors que l’UE est en train de négocier la loi sur l’IA, le premier projet de loi au monde à limiter les utilisations à haut risque de l’IA, y compris la reconnaissance faciale, les systèmes de « notation sociale » et les logiciels optimisés par l’IA pour l’immigration et les avantages sociaux.

Si nous voulons avoir une réelle confiance des consommateurs et des utilisateurs dans l’application d’IA, nous devons être sûrs qu’il est possible d’avoir un tel accès à une indemnisation et d’avoir accès à une décision réelle en justice si nécessaire, sans trop d’obstacles, comme l’opacité des systèmes, a déclaré Reynders.

En vertu de la nouvelle loi, les victimes pourraient contester un fournisseur, un développeur ou un utilisateur de technologie d’IA si elles subissent des dommages à leur santé ou à leurs biens, ou si elles subissent une discrimination fondée sur des droits fondamentaux tels que la vie privée. Jusqu’à présent, il était difficile et extrêmement coûteux pour les victimes de constituer des dossiers lorsqu’elles pensaient avoir été lésées par une IA, car la technologie est complexe et opaque.

Les tribunaux auraient plus de pouvoir pour ouvrir les boîtes noires des entreprises d’IA et demander des informations détaillées sur les données utilisées pour les algorithmes, les spécifications techniques et les mécanismes de contrôle des risques.

Grâce à ce nouvel accès à l’information, les victimes pourraient prouver que les dommages provenaient d’une entreprise technologique qui vendait un système d’IA ou que l’utilisateur de l’IA, par exemple, une université, un lieu de travail ou une agence gouvernementale, n’avait pas respecté les obligations d’autres lois européennes telles que la Loi sur l’IA ou une directive pour protéger les travailleurs des plateformes. Les victimes devraient également prouver que les dommages sont liés aux applications spécifiques de l’IA.

La Commission européenne a également présenté une directive révisée sur la responsabilité du fait des produits. La loi de 1985 n’est pas adaptée aux nouvelles catégories de produits comme les appareils connectés, et les règles révisées visent à permettre aux clients de réclamer une indemnisation lorsqu’ils subissent un préjudice résultant d’une mise à jour logicielle, d’une mise à niveau ou d’un service défectueux. Les règles proposées en matière de responsabilité du fait des produits placent également les marchés en ligne dans le collimateur, qui, selon les règles, peuvent être tenus responsables s’ils ne divulguent pas le nom d’un commerçant à une personne qui a subi un préjudice sur demande.

La proposition de la Commission devra encore être approuvée par les gouvernements nationaux au Conseil de l’UE et par le Parlement européen.

Le Parlement, en particulier, pourrait s’opposer au choix de la Commission européenne de proposer un régime de responsabilité plus faible que celui qu’elle-même a suggéré précédemment.

En 2020, la chambre a appelé la Commission à adopter des règles pour garantir que les victimes d’IA nuisibles puissent obtenir une indemnisation, demandant spécifiquement que les développeurs, les fournisseurs et les utilisateurs d’IA autonomes à haut risque puissent être tenus légalement responsables, même pour les dommages non intentionnels. Mais l’exécutif européen a décidé d’adopter une approche pragmatique plus faible que ce régime de responsabilité stricte, affirmant que les preuves n’étaient pas suffisantes pour justifier un tel régime.

Nous avons choisi le niveau d’intervention le plus bas, a déclaré Reynders. Nous devons voir si de nouveaux développements [will] justifier des règles plus strictes pour l’avenir.

La Commission examinera si un régime plus strict est nécessaire, cinq ans après son entrée en vigueur, a-t-elle déclaré.

Pieter Haeck a contribué au reportage.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite