Singapour ne cherche pas encore à réglementer l’IA, selon l’autorité de la cité-État

  • Singapour ne se précipite pas pour mettre en place une réglementation sur l’IA, même si des appels répétés sont lancés pour que le gouvernement intervienne pour faire face à ses risques.
  • « Nous n’envisageons pas actuellement de réglementer l’IA », a déclaré à CNBC Lee Wan Sie, directeur de l’IA et des données fiables à l’Infocomm Media Development Authority de Singapour.
  • Le gouvernement de Singapour s’efforce de promouvoir l’utilisation responsable de l’IA.
  • Il appelle les entreprises à collaborer à la première boîte à outils de test d’IA au monde appelée AI Verify.

Le front de mer de Marina Bay à Singapour.

Nicky Loh | Bloomberg | Getty Images

Alors que les gouvernements délibèrent sur la question de savoir si l’intelligence artificielle présente des risques ou des dangers et si elle doit être réglementée, Singapour adopte une approche plus attentiste.

« Nous n’envisageons pas actuellement de réglementer l’IA », a déclaré à CNBC Lee Wan Sie, directeur de l’IA et des données fiables à l’Infocomm Media Development Authority de Singapour. L’IMDA promeut et réglemente les secteurs de la communication et des médias de Singapour.

Le gouvernement de Singapour s’efforce de promouvoir l’utilisation responsable de l’IA.

Il appelle les entreprises à collaborer à la première boîte à outils de test d’IA au monde appelée AI Verify, qui permet aux utilisateurs d’effectuer des tests techniques sur leurs modèles d’IA et d’enregistrer des vérifications de processus.

Nous apprendrons comment l’IA est utilisée avant de décider si davantage doit être fait sur le plan réglementaire.

Lee Wan Sie

Directeur pour l’IA et les données de confiance, IMDA

AI Verify a été lancé en tant que projet pilote en 2022. Le géant de la technologie IBM et Singapore Airlines ont déjà commencé les tests pilotes dans le cadre du programme.

Ces derniers mois, le buzz de l’IA s’est accéléré après que le chatbot ChatGPT soit devenu viral pour sa capacité à générer des réponses humaines aux invites des utilisateurs. Il a atteint 100 millions d’utilisateurs en seulement deux mois après son lancement.

Cependant, à l’échelle mondiale, des appels répétés ont été lancés en faveur d’interventions gouvernementales pour faire face aux risques potentiels de l’IA.

Des leaders technologiques tels que le PDG d’OpenAI, Sam Altman, et le PDG de Tesla, Elon Musk, ont mis en garde contre les dangers de la technologie.

« A ce stade, il est tout à fait clair que nous voulons pouvoir apprendre de l’industrie. Nous apprendrons comment l’IA est utilisée avant de décider si davantage doit être fait sur le plan réglementaire », a déclaré Lee, ajoutant que la réglementation pourront être introduites ultérieurement.

« Nous reconnaissons qu’en tant que petit pays, en tant que gouvernement, nous n’avons peut-être pas toutes les réponses à cela. Il est donc très important que nous travaillions en étroite collaboration avec l’industrie, les organismes de recherche et les autres gouvernements », a déclaré Lee.

Haniyeh Mahmoudian, éthicienne de l’IA chez DataRobot et membre consultatif du Comité consultatif national américain sur l’IA, a déclaré que « cela profite vraiment » aux entreprises et aux décideurs.

En savoir plus sur la technologie et la crypto de CNBC Pro

« L’industrie est plus active en matière d’IA. Parfois, en matière de réglementation, vous voyez l’écart entre ce que les décideurs politiques pensent de l’IA et ce qui se passe réellement dans l’entreprise », a déclaré Mahmoudian.

« Ainsi, avoir ce type de collaboration pour créer spécifiquement ces types de boîtes à outils bénéficie de la contribution de l’industrie. Cela profite vraiment aux deux parties », a-t-elle ajouté.

Google, Microsoft et IBM font partie des géants de la technologie qui ont déjà rejoint la AI Verify Foundation, une communauté open source mondiale créée pour discuter des normes et des meilleures pratiques en matière d’IA, ainsi que pour collaborer à la gouvernance de l’IA.

« Chez Microsoft, nous applaudissons le leadership du gouvernement de Singapour dans ce domaine », a déclaré Brad Smith, président et vice-président de Microsoft, dans un communiqué de presse.

« En créant des ressources pratiques telles que le cadre et la boîte à outils de test de gouvernance de l’IA, Singapour aide les organisations à mettre en place des processus de gouvernance et de test robustes », a déclaré Smith.

Le président français Emmanuel Macron et ses ministres ont exprimé le besoin d’une réglementation de l’IA. « Je pense que nous avons besoin d’un règlement et tous les acteurs, même les acteurs américains, sont d’accord avec cela », a déclaré Macron à CNBC la semaine dernière.

La Chine a déjà élaboré un projet de règles conçues pour gérer la façon dont les entreprises développent des produits d’IA générative comme ChatGPT.

Singapour pourrait agir en tant que « intendant » dans la région pour permettre l’innovation, mais dans un environnement sûr, a déclaré Stella Cramer, responsable APAC du groupe technologique du cabinet d’avocats international Clifford Chance.

Clifford Chance travaille avec les régulateurs sur des lignes directrices et des cadres sur une gamme de marchés.

Singapour s’est en quelque sorte positionnée presque comme l’intendant dans la région de l’utilisation responsable et digne de confiance de l’IA.

Stella Cramer

Responsable APAC du groupe technologique du cabinet d’avocats international Clifford Chance

« Il y a juste cette approche cohérente que nous voyons autour de l’ouverture et de la collaboration. Singapour est considérée comme une juridiction qui est un endroit sûr pour venir tester et déployer votre technologie avec le soutien des régulateurs dans un environnement contrôlé », a déclaré Cramer. .

La cité-État a lancé plusieurs projets pilotes tels que le FinTech Regulatory Sandbox ou le sandbox des technologies de la santé permettant aux acteurs de l’industrie de tester leurs produits dans un environnement réel avant de les commercialiser.

« Ces cadres structurés et ces boîtes à outils de test aideront à orienter les politiques de gouvernance de l’IA afin de promouvoir une IA sûre et fiable pour les entreprises », a déclaré Cramer.

« AI Verify peut potentiellement être utile pour démontrer la conformité à certaines exigences », a déclaré Lee d’IMDA. « En fin de compte, en tant que régulateur, si je veux faire respecter [regulation]je dois savoir comment faire. »

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite