ChatGPT entre dans un monde de douleur réglementaire en Europe

Tendances Actusduweb

Exprimé par l’intelligence artificielle.

ChatGPT s’est mis en place pour un parcours difficile avec les puissants chiens de garde de la confidentialité en Europe.

Le chatbot est la sensation la plus chaude de la technologie de l’intelligence artificielle, mais a été frappé d’une interdiction temporaire en Italie le mois dernier au motif qu’il pourrait violer le règlement européen sur la confidentialité, le règlement général sur la protection des données (RGPD).

L’interdiction italienne n’est que le début des problèmes de ChatGPT, car il s’est ouvert à des cas de confidentialité dans tout le bloc et utilise une technologie de pointe qui irrite les gouvernements sur des risques allant de la protection des données à la désinformation, à la cybercriminalité, à la fraude et à la tricherie aux tests scolaires.

OpenAI, l’organisation qui a créé ChatGPT, marche avec une cible sur le dos : elle n’a pas établi de siège local dans l’un des 27 pays de l’Union européenne, ce qui signifie que l’autorité de protection des données de n’importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions.

Auparavant, Google faisait face à une amende de 50 millions de GDPR en France qui avait été infligée avant que le géant américain de la technologie ne centralise officiellement sa configuration juridique européenne en Irlande. TikTok a également fait l’objet de plusieurs enquêtes sur la confidentialité et d’amendes de la part des autorités néerlandaises, italiennes et françaises avant de s’installer légalement en Irlande en 2021.

Les régulateurs européens des données envisagent leurs prochaines étapes pour enquêter sur les abus présumés comme leurs homologues italiens.

La Commission irlandaise de protection des données a déclaré qu’elle coordonnerait avec tous les pays de l’UE [data protection authorities] à ce sujet, selon le porte-parole Graham Doyle. L’autorité belge de protection des données a également déclaré que les infractions potentielles de ChatGPT devraient être discutées lors de [the] Niveau européen.

L’autorité française de protection des données (CNIL) a reçu au moins deux plaintes contre ChatGPT, pour violation de la vie privée, notamment du RGPD, a rapporté LInform.

En Norvège, nous n’avons pas à ce jour lancé d’enquête sur ChatGPT, mais nous n’excluons rien pour l’avenir, a déclaré Tobias Judin, responsable des travaux internationaux pour le régulateur national de la protection des données Datatilsynet.

Alors qu’OpenAI a nié avoir enfreint les lois européennes sur la protection de la vie privée, le directeur général de la société Sam Altman a dit sur Twitter que sa société s’en remettait au « gouvernement italien » pour l’interdiction, apparemment déroutant le régulateur indépendant du pays pour le gouvernement.

« L’Italie est l’un de mes pays préférés et j’ai hâte d’y retourner bientôt », a déclaré Altman.

L’autorité italienne de protection des données a déclaré le 6 avril qu’OpenAI était disposé à lutter contre les violations potentielles des lois européennes sur la protection de la vie privée, à la suite d’un appel vidéo avec des dirigeants de l’entreprise.

Les régulateurs européens des données envisagent leurs prochaines étapes pour enquêter sur les abus présumés comme leurs pairs italiens | Nicolas Maeterlinck/BELGA MAG/AFP via Getty Images

Lois à suivre

Ce n’est pas seulement la confidentialité qui suscite des inquiétudes chez les systèmes d’IA comme ChatGPT.

Fin mars, un jeune Belge s’est suicidé après des semaines de conversations avec un chatbot basé sur l’IA nommé Eliza, a rapporté le journal belge La Libre. Le mois dernier, le magnat de la technologie Elon Musk, aux côtés de milliers d’experts en intelligence artificielle, a appelé à une pause dans le développement de ChatGPT en raison de risques profonds pour l’humanité.

Les groupes de défense ont emboîté le pas. Aux États-Unis, le Center for AI and Digital Policy a demandé à la Federal Trade Commission américaine d’enquêter sur OpenAI et de bloquer les nouvelles versions de son bot. À Bruxelles, l’organisme de surveillance des consommateurs BEUC a supplié les régulateurs européens et nationaux d’enquêter sur ChatGPT, avertissant que le prochain règlement de l’UE sur l’IA pourrait arriver trop tard pour éviter les dommages.

Les législateurs européens négocient également des garde-fous juridiques sur la technologie dans le cadre d’un projet de loi sur l’intelligence artificielle de l’UE.

Mais l’absence de législation sur l’intelligence artificielle a encouragé les régulateurs de la protection des données à intervenir.

Les régulateurs de la protection des données réalisent lentement qu’ils sont des régulateurs de l’IA, a déclaré Gabriela Zanfir-Fortuna, du groupe de réflexion Future of Privacy Forum.

Les régulateurs de la vie privée appliquent le GDPR, y compris ses règles concernant la collecte de données et la protection des utilisateurs contre la prise de décision automatisée. Des entreprises comme OpenAI doivent avoir une base légale pour collecter et utiliser des données personnelles, être transparentes sur la façon dont elles utilisent les données des personnes, maintenir l’exactitude des données personnelles et donner aux personnes un droit de correction.

OpenAI n’a jamais révélé quel ensemble de données il a utilisé pour former le modèle d’IA qui sous-tend le chatbot. Même les chercheurs de Microsoft, qui est le principal investisseur d’OpenAI, ont déclaré dans un article récent qu’ils n’avaient pas accès à tous les détails de [ChatGPT] de vastes données d’entraînement. »

La société de reconnaissance faciale Clearview AI a déjà été condamnée à une amende et ordonnée par les régulateurs de la confidentialité de supprimer les photos de personnes italiennes, françaises et britanniques qu’elle avait collectées en ligne pour construire son algorithme, car elle n’avait pas de base légale pour le faire.

Le fait que ChatGPT ait subi une violation de données et exposé les conversations des utilisateurs et les informations de paiement de ses utilisateurs en mars ne fait qu’ajouter à ses malheurs.

La décision italienne d’arrêter ChatGPT dans son élan est « un signal d’alarme », a déclaré Dessislava Savova, associée spécialisée dans la technologie du cabinet d’avocats Clifford Chance. Cela déclenchera en fait un dialogue en Europe et accélérera une prise de position par d’autres régulateurs.

Laura Kayali a contribué au reportage.

Cet article a été mis à jour pour refléter que des groupes de défense, dont le BEUC, ont demandé aux régulateurs d’enquêter sur ChatGPT, et pour refléter les nouveaux développements concernant les travaux des régulateurs italiens et français sur OpenAI.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite