Construire la technologie de l’IA pour les Européens de manière transparente et responsable | Méta
Mise à jour le 14 juin 2024 à 7h30 (heure du Pacifique) :
Nous avons été déçus par la demande de la Commission irlandaise de protection des données (DPC), notre principal régulateur, au nom des DPA européennes, de retarder la formation de nos grands modèles linguistiques (LLM) utilisant du contenu public partagé par des adultes sur Facebook et Instagram, en particulier depuis que nous avons incorporé Les retours réglementaires et les APD européennes en sont informés depuis mars. Il s’agit d’un pas en arrière pour l’innovation européenne, la concurrence dans le développement de l’IA et de nouveaux retards dans l’apport des avantages de l’IA aux citoyens européens.
Nous restons convaincus que notre approche est conforme aux lois et réglementations européennes. La formation en IA n’est pas propre à nos services et est plus transparente que nombre de nos homologues du secteur.
Nous nous engageons à proposer la Meta AI, ainsi que les modèles qui l’alimentent, à un plus grand nombre de personnes dans le monde, y compris en Europe. Mais, en termes simples, sans inclure les informations locales, nous ne pourrons offrir aux gens qu’une expérience de second ordre. Cela signifie que nous ne sommes pas en mesure de lancer Meta AI en Europe pour le moment.
Nous continuerons à travailler en collaboration avec la DPC afin que les Européens aient accès et soient correctement servis par le même niveau d’innovation en matière d’IA que le reste du monde.
Ce retard nous permettra également de répondre aux demandes spécifiques que nous avons reçues de l’Information Commissioners Office (ICO), notre régulateur britannique, avant de commencer la formation.
Publié initialement le 10 juin 2024 à 6h00 (heure du Pacifique) :
Depuis des années, nous travaillons dur pour créer la prochaine génération de fonctionnalités d’IA sur notre famille d’applications et d’appareils. Et cette année, nous prévoyons d’étendre l’IA chez Meta, notre collection de fonctionnalités et d’expériences d’IA générative ainsi que les modèles qui les propulsent aux citoyens européens.
L’IA chez Meta est déjà disponible dans d’autres parties du monde. Ceci comprend Lama notre grand modèle de langage open source de pointe et l’assistant Meta AI l’assistant IA le plus intelligent que vous puissiez utiliser gratuitement. Pour servir correctement nos communautés européennes, les modèles qui alimentent l’IA chez Meta doivent être formés sur des informations pertinentes qui reflètent les diverses langues, géographies et références culturelles des personnes en Europe qui les utiliseront. Pour ce faire, nous souhaitons entraîner nos grands modèles linguistiques qui alimentent les fonctionnalités d’IA en utilisant le contenu que les citoyens de l’UE ont choisi de partager publiquement sur les produits et services Metas.
Si nous ne formons pas nos modèles sur le contenu public que les Européens partagent sur nos services et autres, comme les publications ou les commentaires publics, alors les modèles et les fonctionnalités d’IA qu’ils utilisent ne comprendront pas avec précision les langues régionales importantes, les cultures ou les sujets d’actualité sur les réseaux sociaux. Nous pensons que les Européens seront mal servis par des modèles d’IA qui ne s’appuient pas sur les riches contributions culturelles, sociales et historiques de l’Europe.
Meta n’est pas la première entreprise à faire cela, nous suivons l’exemple donné par d’autres, notamment Google et OpenAI, qui ont tous deux déjà utilisé les données d’utilisateurs européens pour entraîner l’IA. Notre approche est plus transparente et offre des contrôles plus faciles que bon nombre de nos homologues du secteur qui forment déjà leurs modèles sur des informations similaires accessibles au public.
Nous nous engageons à développer l’IA de manière responsable et transparente
La construction de cette technologie s’accompagne de la responsabilité de développer les meilleures pratiques et politiques conformes aux lois et réglementations locales. Conformément à cet engagement, nous sommes en consultation avec notre principal régulateur de la confidentialité dans l’UE, la Commission irlandaise de protection des données, et avons intégré leurs commentaires à ce jour pour garantir que la manière dont nous formons l’IA chez Meta est conforme aux lois de l’UE sur la confidentialité. Nous continuons également de travailler avec des experts tels que des universitaires et des défenseurs des droits des consommateurs pour garantir que ce que nous construisons respecte les meilleures pratiques.
Nous voulons être transparents avec les gens afin qu’ils connaissent leurs droits et les contrôles dont ils disposent. C’est pourquoi, depuis le 22 mai, nous avons envoyé plus de deux milliards de notifications et d’e-mails dans l’application à des citoyens européens pour leur expliquer ce qu’ils faisaient. Ces notifications contiennent un lien vers un formulaire d’objection qui donne aux personnes la possibilité de s’opposer à ce que leurs données soient utilisées dans nos efforts de modélisation de l’IA.
Lors de l’élaboration de nos notifications, nous avons examiné l’approche de nos homologues du secteur ainsi que nos précédentes notifications de mise à jour de politique. En conséquence, nous avons rendu notre formulaire plus facile à trouver, à lire et à utiliser que ceux proposés par d’autres sociétés proposant de l’IA générative dans l’UE : il est accessible en seulement trois clics et nécessite moins de champs à remplir. Pour faciliter davantage la compréhension, nous l’avons également conçu pour qu’il soit plus accessible aux personnes ayant un âge inférieur pour lire, même si nous n’entraînons pas nos modèles Lama sur le contenu de récits d’Européens de moins de 18 ans.
Nous honorons toutes les objections européennes. Si un formulaire d’objection est soumis avant le début de la formation Llama, les données de ces personnes ne seront pas utilisées pour former ces modèles, que ce soit dans le cycle de formation en cours ou dans le futur.
Pour être clair, notre objectif est de créer des fonctionnalités utiles basées sur les informations que les personnes de plus de 18 ans en Europe ont choisi de partager publiquement sur les produits et services Metas, telles que des publications publiques, des commentaires publics ou des photos publiques et leurs légendes. Les modèles peuvent être formés sur les publications partagées publiquement par les gens, mais il ne s’agit pas d’une base de données contenant les informations de chaque personne ni conçue pour identifier un individu. Ces modèles sont plutôt construits en examinant les informations des personnes pour identifier des modèles, comme la compréhension d’expressions familières ou de références locales, et non pour identifier une personne spécifique ou ses informations.
Comme nous avons dit, nous n’utilisons pas les messages privés des gens avec nos amis et notre famille pour entraîner nos systèmes d’IA. À l’avenir, nous prévoyons d’utiliser d’autres contenus, tels que des interactions avec des fonctionnalités d’IA ou des discussions avec une entreprise utilisant l’IA chez Meta AI.
Comme de nombreux homologues de l’industrie qui nous ont précédés dans la formation de grands modèles linguistiques utilisant des données européennes, pour effectuer ce travail dans l’UE, nous nous appuierons sur une base juridique d’intérêts légitimes pour nous conformer au règlement général sur la protection des données (RGPD) de l’UE. Nous pensons que cette base juridique constitue l’équilibre le plus approprié pour traiter les données publiques à l’échelle nécessaire à la formation des modèles d’IA, tout en respectant les droits des personnes.
Nous estimons qu’il est de notre responsabilité de développer une IA qui ne soit pas imposée aux Européens, mais qui soit réellement conçue pour eux. Pour ce faire, tout en respectant les choix des utilisateurs européens, nous pensons que la bonne chose à faire est de les informer de nos projets et de leur donner le choix de nous dire s’ils ne souhaitent pas y participer. Et nous pensons que le meilleur moyen d’atteindre cet équilibre est que les entreprises soient transparentes sur les informations utilisées par leurs IA, tout en offrant aux utilisateurs des contrôles importants leur permettant de se désinscrire de ces utilisations si telle est leur préférence. C’est précisément ce que nous avons fait.
L’Europe est à la croisée des chemins
Alors que l’Europe se trouve au seuil de la prochaine évolution technologique majeure de la société, certains activistes préconisent des approches extrêmes en matière de données et d’IA. Soyons clairs : ces positions ne reflètent pas le droit européen et reviennent à un argument selon lequel les Européens ne devraient pas avoir accès à l’IA ou être correctement servis par celle-ci comme le reste du monde. Nous sommes profondément en désaccord avec ce résultat.
En tant que l’une des régions les plus influentes au monde, l’Europe a le potentiel pour devenir un leader compétitif en matière d’innovation en matière d’IA. Mais des questions demeurent : les Européens auront-ils un accès égal à une IA révolutionnaire ? Les expériences d’IA refléteront-elles notre culture, notre humour et notre histoire ? Ou bien l’Europe souhaite-t-elle voir le reste du monde bénéficier d’une technologie véritablement innovante qui crée des communautés et stimule la croissance ?
L’IA est la prochaine frontière de l’innovation. Nous vivons l’un des moments technologiques les plus passionnants d’une génération, où des percées se produisent sous nos yeux et où les possibilités sont infinies. Et chez Meta, nous voulons que les Européens en fassent partie.