L’Italie bloque OpenAIs ChatGPT et ouvre une enquête sur les failles de confidentialité
L’agence, également connue sous le nom de Garante, a accusé ChatGPT, soutenu par Microsoft Corp, de ne pas avoir vérifié l’âge de ses utilisateurs qui sont censés être âgés de 13 ans et plus.
ChatGPT a une « absence de toute base légale qui justifie la collecte et le stockage massifs de données personnelles » pour « former » le chatbot, a déclaré Garante. OpenAI a 20 jours pour répondre avec des recours ou pourrait risquer une amende pouvant aller jusqu’à 4% de son chiffre d’affaires mondial annuel.
OpenAI n’a pas immédiatement répondu à une demande de commentaire.
ChatGPT répondait toujours aux questions posées par les utilisateurs italiens sur la plateforme vendredi soir.
La société a été informée de la décision vendredi matin et il aurait été matériellement impossible de débrancher l’accès en Italie le même jour, mais attendez-vous à ce qu’ils le fassent d’ici samedi, a déclaré un porte-parole des autorités.
« S’ils ignorent l’interdiction, l’autorité peut imposer des amendes », a déclaré le porte-parole.
L’Italie, qui a provisoirement restreint l’utilisation par ChatGPT des données personnelles des utilisateurs nationaux, est devenue le premier pays occidental à prendre des mesures contre un chatbot alimenté par l’intelligence artificielle.
Le chatbot est également indisponible en Chine continentale, à Hong Kong, en Iran et en Russie et dans certaines parties de l’Afrique où les résidents ne peuvent pas créer de comptes OpenAI.
Depuis sa sortie l’année dernière, ChatGPT a déclenché un engouement technologique, incitant ses rivaux à lancer des produits similaires et des entreprises à l’intégrer ou des technologies similaires dans leurs applications et produits.
Le développement rapide de la technologie a attiré l’attention des législateurs de plusieurs pays. De nombreux experts affirment que de nouvelles réglementations sont nécessaires pour régir l’IA en raison de son impact potentiel sur la sécurité nationale, l’emploi et l’éducation.
La Commission européenne, qui débat de la loi européenne sur l’IA, n’est peut-être pas encline à interdire l’IA, a tweeté la vice-présidente exécutive de la Commission européenne, Margrethe Vestager.
« Peu importe la #technologie que nous utilisons, nous devons continuer à faire progresser nos libertés et à protéger nos droits. C’est pourquoi nous ne réglementons pas les technologies #IA, nous réglementons les utilisations de l’#IA », a-t-elle déclaré. « Ne jetons pas en quelques années ce qui a mis des décennies à construire. »
La CE n’a pas répondu à une demande de commentaires.
Mercredi, Elon Musk et un groupe d’experts en intelligence artificielle et de dirigeants de l’industrie ont appelé à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, dans une lettre ouverte citant les risques potentiels pour la société.
OpenAI n’a pas fourni de détails sur la façon dont il forme son modèle d’IA.
« Le manque de transparence est le vrai problème », a déclaré Johanna Bjrklund, chercheuse en IA et professeure associée à l’Université d’Ume en Suède. « Si vous faites de la recherche sur l’IA, vous devez être très transparent sur la façon dont vous le faites »,
On estime que ChatGPT a atteint 100 millions d’utilisateurs actifs par mois en janvier, deux mois seulement après son lancement, ce qui en fait l’application grand public à la croissance la plus rapide de l’histoire, selon une étude UBS publiée le mois dernier.
(Reuters)