L’Italie est devenue le premier pays occidental à interdire ChatGPT. Voici ce que font les autres pays

  • La semaine dernière, l’Italie est devenue le premier pays occidental à interdire ChatGPT, le chatbot AI populaire.
  • ChatGPT a à la fois impressionné les chercheurs par ses capacités tout en inquiétant les régulateurs et les éthiciens des implications négatives pour la société.
  • Cette décision a mis en évidence l’absence de toute réglementation concrète, l’Union européenne et la Chine étant parmi les rares juridictions à élaborer des règles sur mesure pour l’IA.
  • Divers gouvernements étudient comment réglementer l’IA, et certains réfléchissent à la manière de traiter les systèmes à usage général tels que ChatGPT.

Cette illustration photo montre le logo ChatGPT dans un bureau à Washington, DC, le 15 mars 2023.

Stefani Reynolds | AFP | Getty Images

L’Italie est devenue le premier pays occidental à interdire ChatGPT, le populaire chatbot d’intelligence artificielle de la startup américaine OpenAI.

La semaine dernière, l’organisme italien de surveillance de la protection des données a ordonné à OpenAI de cesser temporairement de traiter les données des utilisateurs italiens dans le cadre d’une enquête sur une violation présumée des réglementations européennes strictes en matière de confidentialité.

Le régulateur, également connu sous le nom de Garante, a cité une violation de données chez OpenAI qui permettait aux utilisateurs de voir les titres des conversations que d’autres utilisateurs avaient avec le chatbot.

Il « ne semble pas y avoir de base légale sous-tendant la collecte et le traitement massifs de données personnelles afin de ‘former’ les algorithmes sur lesquels s’appuie la plateforme », a déclaré Garante dans un communiqué vendredi.

Garante a également signalé des inquiétudes concernant le manque de restrictions d’âge sur ChatGPT et la façon dont le chatbot peut fournir des informations factuellement incorrectes dans ses réponses.

OpenAI, qui est soutenu par Microsoft, risque une amende de 20 millions d’euros (21,8 millions de dollars), soit 4 % de son chiffre d’affaires annuel mondial, s’il ne propose pas de remèdes à la situation dans les 20 jours.

L’Italie n’est pas le seul pays à tenir compte du rythme rapide de la progression de l’IA et de ses implications pour la société. D’autres gouvernements proposent leurs propres règles pour l’IA, qui, qu’ils mentionnent ou non l’IA générative, y toucheront sans aucun doute. L’IA générative fait référence à un ensemble de technologies d’IA qui génèrent de nouveaux contenus en fonction des invites des utilisateurs. Il est plus avancé que les versions précédentes de l’IA, en grande partie grâce à de nouveaux grands modèles de langage, qui sont entraînés sur de grandes quantités de données.

Il y a longtemps que des appels sont lancés pour que l’IA soit confrontée à la réglementation. Mais le rythme auquel la technologie a progressé est tel qu’il s’avère difficile pour les gouvernements de suivre. Les ordinateurs peuvent désormais créer des œuvres d’art réalistes, rédiger des essais entiers ou même générer des lignes de code en quelques secondes.

« Nous devons faire très attention à ne pas créer un monde où les humains sont en quelque sorte soumis à un avenir plus grand pour les machines », a déclaré Sophie Hackford, conseillère en innovation technologique futuriste et mondiale pour le fabricant américain d’équipements agricoles John Deere, à l’émission « Squawk » de CNBC. Boîte Europe » lundi.

« La technologie est là pour nous servir. Elle est là pour accélérer notre diagnostic de cancer ou pour éviter aux humains de faire des travaux que nous ne voulons pas faire. »

« Nous devons y réfléchir très attentivement maintenant, et nous devons agir là-dessus maintenant, du point de vue de la réglementation », a-t-elle ajouté.

Divers régulateurs sont préoccupés par les défis posés par l’IA pour la sécurité de l’emploi, la confidentialité des données et l’égalité. On craint également que l’IA avancée ne manipule le discours politique en générant de fausses informations.

De nombreux gouvernements commencent également à réfléchir à la manière de traiter les systèmes à usage général tels que ChatGPT, certains envisageant même de se joindre à l’Italie pour interdire la technologie.

La semaine dernière, le Royaume-Uni a annoncé son intention de réglementer l’IA. Plutôt que d’établir de nouvelles réglementations, le gouvernement a demandé aux régulateurs de différents secteurs d’appliquer les réglementations existantes à l’IA.

Les propositions britanniques, qui ne mentionnent pas ChatGPT par leur nom, décrivent certains principes clés que les entreprises doivent suivre lorsqu’elles utilisent l’IA dans leurs produits, notamment la sécurité, la transparence, l’équité, la responsabilité et la contestabilité.

La Grande-Bretagne ne propose pas à ce stade de restrictions sur ChatGPT, ni sur aucun type d’IA d’ailleurs. Au lieu de cela, il veut s’assurer que les entreprises développent et utilisent les outils d’IA de manière responsable et donnent aux utilisateurs suffisamment d’informations sur comment et pourquoi certaines décisions sont prises.

Dans un discours au Parlement mercredi dernier, la ministre du numérique, Michelle Donelan, a déclaré que la popularité soudaine de l’IA générative montrait que les risques et les opportunités entourant la technologie « émergent à un rythme extraordinaire ».

En adoptant une approche non statutaire, le gouvernement pourra « réagir rapidement aux avancées de l’IA et intervenir davantage si nécessaire », a-t-elle ajouté.

Dan Holmes, responsable de la prévention de la fraude chez Feedzai, qui utilise l’IA pour lutter contre la criminalité financière, a déclaré que la principale priorité de l’approche du Royaume-Uni était de s’attaquer à « à quoi ressemble une bonne utilisation de l’IA ».

« C’est plus, si vous utilisez l’IA, ce sont les principes auxquels vous devriez penser », a déclaré Holmes à CNBC. « Et cela se résume souvent à deux choses, à savoir la transparence et l’équité. »

Le reste de l’Europe devrait adopter une position beaucoup plus restrictive sur l’IA que ses homologues britanniques, qui s’écartent de plus en plus des lois numériques de l’UE après le retrait du Royaume-Uni du bloc.

L’Union européenne, qui est souvent à l’avant-garde en matière de réglementation technologique, a proposé une législation révolutionnaire sur l’IA.

Connues sous le nom de loi européenne sur l’IA, les règles restreindront fortement l’utilisation de l’IA dans les infrastructures critiques, l’éducation, l’application de la loi et le système judiciaire.

Il fonctionnera en conjonction avec le règlement général sur la protection des données de l’UE. Ces règles régissent la manière dont les entreprises peuvent traiter et stocker les données personnelles.

Lorsque la loi sur l’IA a été imaginée pour la première fois, les responsables n’avaient pas pris en compte les progrès fulgurants des systèmes d’IA capables de générer des œuvres d’art impressionnantes, des histoires, des blagues, des poèmes et des chansons.

Selon Reuters, le projet de règles de l’UE considère ChatGPT comme une forme d’IA à usage général utilisée dans les applications à haut risque. Les systèmes d’IA à haut risque sont définis par la commission comme ceux qui pourraient affecter les droits fondamentaux ou la sécurité des personnes.

Ils seraient confrontés à des mesures comprenant des évaluations des risques rigoureuses et une obligation d’éliminer la discrimination résultant des algorithmes d’alimentation des ensembles de données.

« L’UE possède une grande et profonde poche d’expertise en IA. Ils ont accès à certains des meilleurs talents du monde, et ce n’est pas une nouvelle conversation pour eux », a déclaré Max Heinemeyer, directeur des produits de Darktrace. CNBC.

« Il vaut la peine de leur faire confiance pour avoir à cœur le meilleur des États membres et être pleinement conscients des avantages concurrentiels potentiels que ces technologies pourraient apporter par rapport aux risques. »

Mais alors que Bruxelles élabore des lois sur l’IA, certains pays de l’UE examinent déjà les actions de l’Italie sur ChatGPT et se demandent s’il faut emboîter le pas.

« En principe, une procédure similaire est également possible en Allemagne », a déclaré Ulrich Kelber, commissaire fédéral allemand à la protection des données, au journal Handelsblatt.

Les régulateurs français et irlandais de la protection de la vie privée ont contacté leurs homologues italiens pour en savoir plus sur ses conclusions, a rapporté Reuters. L’autorité suédoise de protection des données a exclu une interdiction. L’Italie est en mesure d’aller de l’avant avec une telle action car OpenAI n’a pas de bureau unique dans l’UE.

L’Irlande est généralement le régulateur le plus actif en matière de confidentialité des données, car la plupart des géants américains de la technologie comme Meta et Google y ont leurs bureaux.

Les États-Unis n’ont pas encore proposé de règles formelles pour assurer la surveillance de la technologie de l’IA.

L’Institut national des sciences et technologies du pays a mis en place un cadre national qui donne aux entreprises utilisant, concevant ou déployant des systèmes d’IA des conseils sur la gestion des risques et des dommages potentiels.

Mais il fonctionne sur une base volontaire, ce qui signifie que les entreprises ne subiraient aucune conséquence en cas de non-respect des règles.

Jusqu’à présent, aucune mesure n’a été prise pour limiter ChatGPT aux États-Unis.

Le mois dernier, la Federal Trade Commission a reçu une plainte d’un groupe de recherche à but non lucratif alléguant que GPT-4, le dernier grand modèle de langage d’OpenAI, est « partial, trompeur et constitue un risque pour la vie privée et la sécurité publique » et viole les directives de l’agence en matière d’IA.

La plainte pourrait conduire à une enquête sur OpenAI et à la suspension du déploiement commercial de ses grands modèles de langage. La FTC a refusé de commenter.

ChatGPT n’est pas disponible en Chine, ni dans divers pays fortement censurés sur Internet comme la Corée du Nord, l’Iran et la Russie. Il n’est pas officiellement bloqué, mais OpenAI n’autorise pas les utilisateurs du pays à s’inscrire.

Plusieurs grandes entreprises technologiques en Chine développent des alternatives. Baidu, Alibaba et JD.com, certaines des plus grandes entreprises technologiques chinoises, ont annoncé des plans pour les rivaux de ChatGPT.

La Chine a tenu à s’assurer que ses géants de la technologie développent des produits conformes à ses réglementations strictes.

Le mois dernier, Pékin a introduit une réglementation unique en son genre sur les soi-disant deepfakes, images, vidéos ou textes générés ou modifiés synthétiquement à l’aide de l’IA.

Les régulateurs chinois ont précédemment introduit des règles régissant la manière dont les entreprises utilisent les algorithmes de recommandation. L’une des exigences est que les entreprises doivent déposer les détails de leurs algorithmes auprès du régulateur du cyberespace.

De telles réglementations pourraient en théorie s’appliquer à tout type de technologie de type ChatGPT.

– Arjun Kharpal de CNBC a contribué à ce rapport

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite