La première loi majeure au monde sur l’intelligence artificielle obtient le feu vert final de l’UE
Accélérateur d’IA Intel Gaudi3 le jeudi 14 décembre 2023. Intel a annoncé de nouvelles puces pour PC et centres de données qui, espèrent la société, lui donneront une plus grande part du marché en plein essor du matériel d’intelligence artificielle.
Bloomberg | Bloomberg | Getty Images
Les États membres de l’Union européenne ont donné mardi leur accord final sur la première grande loi mondiale visant à réglementer l’intelligence artificielle, alors que les institutions du monde entier s’efforcent d’introduire des restrictions à cette technologie.
Le Conseil de l’UE a déclaré avoir approuvé la loi sur l’IA, un texte réglementaire révolutionnaire qui fixe des règles complètes concernant la technologie de l’intelligence artificielle.
« L’adoption de la loi sur l’IA constitue une étape importante pour l’Union européenne », a déclaré mardi Mathieu Michel, secrétaire d’État belge chargé de la numérisation.
« Avec la loi sur l’IA, l’Europe souligne l’importance de la confiance, de la transparence et de la responsabilité lorsqu’il s’agit de nouvelles technologies, tout en garantissant que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne », a ajouté Michel.
La loi sur l’IA applique une approche basée sur les risques à l’intelligence artificielle, ce qui signifie que les différentes applications de la technologie sont traitées différemment, en fonction des menaces perçues qu’elles représentent pour la société.
La loi interdit les applications de l’IA considérées comme « inacceptables » en termes de niveau de risque. Ces applications comportent des systèmes dits de « notation sociale » qui classent les citoyens sur la base de l’agrégation et de l’analyse de leurs données, de la police prédictive et de la reconnaissance émotionnelle sur le lieu de travail et dans les écoles.
Les systèmes d’IA à haut risque couvrent les véhicules autonomes ou les dispositifs médicaux, qui sont évalués en fonction des risques qu’ils présentent pour la santé, la sécurité et les droits fondamentaux des citoyens. Elles incluent également les applications de l’IA dans les services financiers et l’éducation, où il existe un risque de biais inhérent aux algorithmes d’IA.
Matthew Holman, associé du cabinet d’avocats Cripps, a déclaré que les règles auront des implications majeures pour toute personne ou entité développant, créant, utilisant ou revendant l’IA dans l’UE, les entreprises technologiques américaines étant fermement sous le feu des projecteurs.
« La loi européenne sur l’IA ne ressemble à aucune autre loi sur la planète », a déclaré Holman. « Cela crée pour la première fois un régime réglementaire détaillé pour l’IA. »
« Les géants américains de la technologie surveillent de près l’évolution de cette loi », a ajouté Holman. « De nombreux financements ont été consacrés aux systèmes d’IA générative destinés au public, qui devront garantir le respect de la nouvelle loi, qui est, dans certains endroits, assez onéreuse. »
La Commission européenne aura le pouvoir d’infliger aux entreprises qui enfreignent la loi sur l’IA une amende pouvant aller jusqu’à 35 millions d’euros (38 millions de dollars) ou 7 % de leur chiffre d’affaires annuel mondial, le montant le plus élevé étant retenu.
Le changement dans la législation européenne intervient après le lancement de ChatGPT par OpenAI en novembre 2022. Les responsables se sont rendu compte à l’époque que la législation existante manquait des détails nécessaires pour prendre en compte les capacités avancées de la technologie émergente d’IA générative et les risques liés à l’utilisation de matériel protégé par le droit d’auteur.
La loi impose des restrictions strictes aux systèmes d’IA générative, qualifiés par l’UE d’IA « à usage général ». Celles-ci incluent des exigences de respect de la loi européenne sur le droit d’auteur, des divulgations de transparence sur la manière dont les modèles sont formés, des tests de routine et des protections adéquates en matière de cybersécurité.
Mais il faudra un certain temps avant que ces exigences entrent réellement en vigueur, selon Dessi Savova, associée chez Clifford Chance. Les restrictions sur les systèmes à usage général ne commenceront que 12 mois après l’entrée en vigueur de la loi sur l’IA.
Et même dans ce cas, les systèmes d’IA générative actuellement disponibles dans le commerce, comme ChatGPT d’OpenAI, Gemini de Google et Copilot de Microsoft, bénéficient d’une « période de transition » qui leur donne 36 mois à compter du jour de son entrée en vigueur pour mettre leur technologie en conformité avec la législation. .
« Un accord a été conclu sur la loi sur l’IA et ce règlement est sur le point de devenir une réalité », a déclaré Savova à CNBC par courrier électronique. « Maintenant, l’attention doit se tourner vers la mise en œuvre et l’application efficaces de la loi sur l’IA. »