Loi sur l’intelligence artificielle : le Conseil appelle à promouvoir une IA sûre et respectueuse des droits fondamentaux

Le Conseil a adopté sa position commune (orientation générale) sur la Loi sur l’intelligence artificielle. Son objectif est de garantir que les systèmes d’intelligence artificielle (IA) mis sur le marché de l’UE et utilisés dans l’Union soient sûr et respecter la législation en vigueur sur droits fondamentaux et valeurs syndicales.

Ivan Barto, vice-Premier ministre tchèque chargé de la numérisation et ministre du développement régional

L’intelligence artificielle est d’une importance primordiale pour notre avenir. Aujourd’hui, nous avons réussi à atteindre un équilibre délicat qui stimulera l’innovation et l’adoption de la technologie de l’intelligence artificielle dans toute l’Europe. Avec tous les avantages qu’elle présente, d’une part, et le plein respect des droits fondamentaux de nos concitoyens, d’autre part.

Ivan Barto, vice-Premier ministre tchèque chargé de la numérisation et ministre du développement régional

Le projet de règlement présenté par la Commission en avril 2021 est un élément clé de la politique de l’UE visant à favoriser le développement et l’adoption dans l’ensemble du marché unique de sûr et légal Une IA qui respecte les droits fondamentaux.

La proposition fait suite à une Approche fondée sur le risque et dépose un uniforme, cadre juridique horizontal pour l’IA qui vise à garantir la sécurité juridique. Il promeut l’investissement et l’innovation dans l’IA, améliore gouvernance et application efficace du droit existant en matière de droits fondamentaux et de sécurité, et facilite le développement d’un marché unique des Applications IA. Il va de pair avec d’autres initiatives, dont le plan coordonné sur l’intelligence artificielle qui vise à accélérer les investissements dans l’IA en Europe.

Définition d’un système d’IA

Pour s’assurer que le définition d’un système d’IA fournit des critères suffisamment clairs pour distinguer l’IA des systèmes logiciels plus simples, le texte du Conseil limite la définition aux systèmes développés par des approches d’apprentissage automatique et des approches basées sur la logique et les connaissances.

Pratiques d’IA interdites

Concernant pratiques d’IA interditesle texte étend aux acteurs privés l’interdiction d’utiliser l’IA pour notation sociale. En outre, la disposition interdisant l’utilisation de systèmes d’IA qui exploitent les vulnérabilités d’un groupe spécifique de personnes couvre désormais également les personnes qui sont vulnérables en raison de leur situation sociale ou économique.

En ce qui concerne l’interdiction d’utiliser des systèmes d’identification biométrique à distance en temps réel dans les espaces accessibles au public par Autorités chargées de l’application de la loile texte clarifie les objectifs lorsqu’une telle utilisation est strictement nécessaire à des fins répressives et pour lesquels les autorités répressives devraient donc être exceptionnellement autorisées à utiliser de tels systèmes.

Classification des systèmes d’IA comme à haut risque

En ce qui concerne la classification des systèmes d’IA comme à haut risquele texte ajoute une couche horizontale au-dessus de la classification à haut risque, afin de garantir que les systèmes d’IA qui ne sont pas susceptibles de causer de graves violations des droits fondamentaux ou d’autres risques importants ne sont pas capturés.

Exigences pour les systèmes d’IA à haut risque

Beaucoup de conditions pour les systèmes d’IA à haut risque ont été clarifiés et ajustés de manière à ce qu’ils soient techniquement plus réalisables et moins contraignants pour les parties prenantes à respecter, par exemple en ce qui concerne la qualité des données ou en ce qui concerne la documentation technique à établir par les PME pour démontrer que leurs systèmes d’IA à haut risque sont conformes aux exigences.

Étant donné que les systèmes d’IA sont développés et distribués à travers des chaînes de valeur complexes, le texte comprend des modifications clarifiant la répartition des responsabilités et des rôles des différents acteurs de ces chaînes, en particulier les fournisseurs et les utilisateurs de systèmes d’IA. Elle clarifie également la relation entre les responsabilités en vertu de la loi sur l’intelligence artificielle et les responsabilités qui existent déjà en vertu d’autres actes législatifs, tels que la législation pertinente de l’Union en matière de protection des données ou la législation sectorielle, y compris en ce qui concerne le secteur des services financiers.

Systèmes d’IA à usage général

De nouvelles dispositions ont été ajoutées pour tenir compte des situations dans lesquelles les systèmes d’IA peuvent être utilisés à de nombreuses fins différentes (IA à usage général), et où la technologie d’IA à usage général est ensuite intégrée dans un autre système à haut risque.

Le texte précise que certaines exigences pour les systèmes d’IA à haut risque s’appliqueraient également aux systèmes d’IA à usage général dans de tels cas. Toutefois, au lieu d’appliquer directement ces exigences, un acte d’exécution préciserait comment elles devraient être appliquées en ce qui concerne les systèmes d’IA à usage général, sur la base d’une consultation et d’une évaluation d’impact détaillée et en tenant compte des caractéristiques spécifiques de ces systèmes et de la chaîne de valeur connexe, de la faisabilité technique et des évolutions du marché et de la technologie.

Champ d’application et dispositions relatives aux forces de l’ordre

Une référence explicite a été faite à l’exclusion des sécurité nationale, défense et fins militaires du champ d’application de la loi sur l’IA. De même, il a été précisé que la loi sur l’IA ne devrait pas s’appliquer aux systèmes d’IA et à leurs produits utilisés à des fins exclusives de recherche et de développement et aux obligations des personnes utilisant l’IA à des fins non professionnelles, qui ne relèveraient pas du champ d’application de la loi sur l’IA. Loi, à l’exception des obligations de transparence.

Compte tenu des spécificités des autorités répressives, plusieurs modifications ont été apportées aux dispositions relatives à l’utilisation des systèmes d’IA à des fins répressives. Notamment, sous réserve de garanties appropriées, ces changements visent à refléter la nécessité de respecter la confidentialité des données opérationnelles sensibles en rapport avec leurs activités.

Cadre de conformité et AI Board

Afin de simplifier le cadre de conformité à la loi IA, le texte apporte plusieurs précisions et simplifications aux dispositions relatives à la évaluation de la conformité procédures.

Les dispositions relatives à surveillance du marché ont également été clarifiées et simplifiées pour les rendre plus efficaces et plus faciles à mettre en œuvre. Le texte modifie également substantiellement les dispositions relatives à la Conseil IA, visant à lui assurer une plus grande autonomie et à renforcer son rôle dans l’architecture de gouvernance de la loi IA. Afin d’assurer la implication des parties prenantes en ce qui concerne toutes les questions liées à la mise en œuvre de la loi sur l’IA, y compris la préparation des actes d’exécution et délégués, une nouvelle exigence a été ajoutée pour que le conseil d’administration crée un sous-groupe permanent servant de plate-forme pour un large éventail de parties prenantes.

Concernant pénalités pour les infractions aux dispositions de la loi IA, le texte prévoit des plafonds plus proportionnés aux amendes administratives pour les PME et les start-up.

Transparence et autres dispositions en faveur des personnes concernées

Le texte comprend plusieurs changements qui augmentent transparence concernant l’utilisation de systèmes d’IA à haut risque. Notamment, certaines dispositions ont été mises à jour pour indiquer que certains utilisateurs d’un système d’IA à haut risque qui sont des entités publiques seront également tenus de s’enregistrer dans la base de données de l’UE pour les systèmes d’IA à haut risque.

De plus, une disposition nouvellement ajoutée met l’accent sur l’obligation pour les utilisateurs d’un système de reconnaissance des émotions d’informer les personnes physiques lorsqu’elles sont exposées à un tel système.

Le texte précise également qu’une personne physique ou morale peut introduire une réclamation auprès de la autorité de surveillance du marché concernant le non-respect de la loi IA et peut s’attendre à ce qu’une telle plainte soit traitée conformément aux procédures spécifiques de cette autorité.

Mesures en faveur de l’innovation

En vue de créer un cadre juridique plus favorable à l’innovation et de promouvoir un apprentissage réglementaire fondé sur des données probantes, les dispositions concernant mesures de soutien à l’innovation ont été considérablement modifiés dans le texte.

Notamment, il a été précisé que l’IA bacs à sable réglementairesqui sont censés établir un environnement contrôlé pour le développement, le test et la validation de systèmes d’IA innovants, devraient également permettre de tester des systèmes d’IA innovants dans des conditions réelles.

De plus, de nouvelles dispositions ont été ajoutées permettant tests en situation réelle non supervisés des systèmes d’IA, dans des conditions et des garanties spécifiques. Pour alléger la charge administrative des petites entreprisesle texte comprend une liste d’actions à entreprendre pour soutenir ces opérateurs et il prévoit certaines dérogations limitées et clairement spécifiées.

Prochaines étapes

L’adoption de l’orientation générale permettra au Conseil d’entamer des négociations avec le Parlement européen (trilogues) une fois que celle-ci aura arrêté sa propre position en vue de parvenir à un accord sur le règlement proposé.

Visitez la page de la réunion

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite