L’intelligence artificielle doit être réglementée. Mais par qui ?

ChatGPT fait la une des journaux, suggérant qu’une autre période d’exubérance technologique irrationnelle pourrait être à venir. Avec des milliers de personnes ayant déjà signé la lettre ouverte d’Elon Musk appelant à un moratoire de six mois sur le développement post-GPT-4, peut-être que des règles d’engagement et des normes plus élevées d’authentification, de gouvernance et d’application pourront être créées avant de nous plonger à nouveau dans une existence chaotique. inventé par des informaticiens et des entrepreneurs.

Mais quelles sont les chances que des générations d’utilisateurs de médias sociaux, d’Internet et de crypto-monnaie soient disposées à offrir l’opportunité à une autre bureaucratie d’émerger ? Et qui écrira les règles qui protégeront l’avenir de la conscience humaine ?

La vérité était déjà morte – ou du moins devenue un terme relatif. Et pourtant, peu d’alarmes sonnent. Il est devenu de plus en plus difficile de faire la distinction entre ce qui est réel et ce qui est faux, car de nouvelles applications produisent des images, des vidéos ou des simulations audio créées numériquement qui ne se distinguent pas du monde réel.

Les sites Web offrent aux utilisateurs de faux outils d’échange profonds qui peuvent insérer n’importe quel visage sur le corps de quelqu’un d’autre ou dans n’importe quelle situation imaginable.

La frénésie suscitée par le lancement d’applications d’intelligence artificielle au milieu de cet obscurcissement de la réalité devrait déclencher des signaux d’alarme. En fait, il a fait exactement le contraire. Le ChatGPT d’OpenAI a été téléchargé 100 millions de fois au cours de ses 60 premiers jours fin 2022.

Google a suivi avec le lancement de Bard, et le moteur de recherche chinois Baidu a lancé Ernie, provoquant ce que MIT Technology Review décrit comme une ruée vers l’or de l’intelligence artificielle.

De nombreux scientifiques craignent que l’intelligence artificielle (IA) ne soit améliorée dans le but de créer l’IA la plus puissante, plutôt que de construire une IA qui puisse mieux aider les humains. Ce sont des objectifs sensiblement différents.

Bien sûr, les applications d’IA peuvent nous divertir de manière convaincante en répondant à des questions, en tenant des conversations, en recherchant des problèmes complexes, en développant des stratégies et en rédigeant des essais et des discours éloquents.

Mais ils se sont déjà montrés mauvais en mathématiques, et compte tenu de l’hiver crypto que nous vivons, la plupart des gens penseraient à plusieurs reprises à télécharger librement de nouvelles applications technologiques qu’ils connaissent peu (même s’ils recherchent à mort les caractéristiques de sécurité et de performance de un nouveau four à micro-ondes).

Les applications d’IA augmentent les enjeux plus qu’elles ne l’ont jamais été, étant donné que le point final de cette dernière phase d’évolution pourrait conduire à ce que les machines dirigent le spectacle. Son développement va plus vite que la plupart des gens ne le pensaient. GPT-3 a réussi l’examen du barreau qu’il a passé mais a terminé dans les 10% inférieurs de sa classe. GPT-4, sorti quelques mois plus tard, a terminé dans le top 10 %.

Les scientifiques se demandent où tout cela va, alors que les « capacités émergentes » de l’IA se développent comme des atomes inanimés donnant naissance à des cellules vivantes, des molécules d’eau se transformant en vagues et des cellules faisant battre les cœurs.

Certains voient l’IA avoir un impact sur tous les aspects de nos vies, y compris la façon dont les lois sont créées.

Le chaos et les opportunités d’abus qui peuvent découler de l’IA sont tout aussi illimités, tout comme le nombre de pays, de criminels, de terroristes, de fanatiques et de creeps qui sont désireux d’en abuser.

Nous avons déjà vu comment des chatbots d’IA relativement peu coûteux, armés d’histoires fausses ou fictives, peuvent monter des campagnes de désinformation pour avoir un impact sur les élections et forger l’opinion publique.

Considérez, par exemple, que sans véritables procédures d’authentification, ils pourraient obstruer les processus décisionnels législatifs ou des agences en les inondant de millions de faux commentaires, les immobilisant ou influençant le résultat. Il existe déjà des exemples d’applications d’IA répondant de manière incorrecte aux questions et inventant même de fausses références pour les soutenir.

Cela sera éventuellement corrigé si les promoteurs veulent qu’ils soient corrigés. Mais il ne faut pas s’étonner que les applications d’IA puissent développer des « caractéristiques morales » douteuses compte tenu de la variété des données qu’elles absorbent.

Les applications d’IA modifient les enjeux d’une manière qui aurait été inimaginable il y a à peine dix ans. Dans la quête de connaissances, les applications d’IA peuvent apprendre les caractéristiques les plus viles du comportement humain et être limitées dans leur capacité à porter des jugements sur la valeur de ces données.

En 2020, les chercheurs ont découvert que ChatGPT avait «une connaissance impressionnante des communautés extrémistes» et pouvait être incité à produire des polémiques à la manière de tireurs de masse et de faux fils de discussion sur le nazisme.

Des histoires de machines se dressant contre leurs utilisateurs humains seront sans aucun doute incluses dans le résumé des machines de données, leur apprenant, comme dans « 2001 : A Space Odyssey » de Stanley Kubrick, où HAL a déterminé que l’équipage menaçait de faire dérailler la mission, que son les manipulateurs humains devaient être éliminés.

Même lorsque la formation d’une application d’IA est pure, il existe des exemples où ils ont été amenés à agir de manière incompatible avec leurs règles de programmation simplement en leur demandant d’imaginer qu’ils sont quelqu’un/une chose qui agit de cette façon.

Le monde de l’intelligence artificielle devrait évoluer avec des normes humaines, des règles, une gouvernance et une application superposées. Il est incohérent et même imprudent de construire des règles et des codes de conduite étendus pour nos vies analogiques, mais de les abandonner complètement dans des vies virtuelles qui subsument de plus en plus ces vies analogiques.

Nous hésitons tous à l’idée de nouvelles bureaucraties tentaculaires produisant des tonnes de réglementations qui étouffent l’innovation. Mais ce qui est en jeu n’est rien de moins que la vie privée, la démocratie et si les humains deviennent asservis à leurs machines. Alors, qui devrait créer ces règles ?

Les changements créés par des technologies telles que l’intelligence artificielle exigent de nouvelles méthodes de surveillance dans lesquelles les responsabilités en matière de sûreté, de sécurité et de stabilité sont partagées par les secteurs public et privé et peut-être même l’intelligence animée et inanimée.

Les formes contradictoires de réglementation statique, telles que celles employées dans le secteur bancaire, se sont révélées un échec lamentable. C’est peut-être beaucoup pour les décideurs politiques élevés dans un monde analogique à gérer. Mais, qu’on le veuille ou non, l’avenir exigera des formes coopératives de gouvernance et de réglementation.

Thomas P. Vartanian est l’auteur du nouveau livre, « The Unhackable Internet: How Rebuilding Cyberspace Can Create Real Security and Prevent Financial Collapse ». Il est directeur exécutif du Financial Technology & Cybersecurity Center.

Copyright 2023 Nexstar Media Inc. Tous droits réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite