La nouvelle IA de Metas est habile dans un jeu impitoyable à la recherche de pouvoir

Commentaire

L’intelligence artificielle est devenue plus réaliste.

Des chercheurs de Meta, la société mère de Facebook, ont dévoilé un modèle d’intelligence artificielle, nommé Cicéron d’après l’homme d’État romain, qui démontre des compétences de négociation, de ruse et de prévoyance. Le plus souvent, il gagne à Diplomacy, un jeu de stratégie complexe et impitoyable où les joueurs forgent des alliances, élaborent des plans de bataille et négocient pour conquérir une version stylisée de l’Europe.

C’est la dernière évolution de l’intelligence artificielle, qui a connu des progrès rapides ces dernières années qui ont conduit à des inventions dystopiques, des chatbots devenant humains, à l’art généré devenant hyper-réaliste, aux drones tueurs.

Cicero, sorti en novembre, a réussi à faire croire aux humains que c’était réel, selon Meta, et peut inviter les joueurs à rejoindre des alliances, à élaborer des plans d’invasion et à négocier des accords de paix en cas de besoin. Sa maîtrise du langage a surpris certains scientifiques et ses créateurs, qui pensaient que ce niveau de sophistication était à des années.

Mais les experts ont déclaré que sa capacité à retenir des informations, à avoir plusieurs longueurs d’avance sur ses adversaires et à déjouer les concurrents humains suscitait des préoccupations plus larges. Ce type de technologie pourrait être utilisé pour concocter des escroqueries plus intelligentes qui extorquent les gens ou créent des contrefaçons plus convaincantes.

Un ingénieur de Google pense que l’intelligence artificielle dans l’entreprise a pris vie

C’est un excellent exemple de combien nous pouvons tromper d’autres êtres humains, a déclaré Kentaro Toyama, professeur et expert en intelligence artificielle à l’Université du Michigan, qui a lu l’article Meta. Ces choses sont super effrayantes et pourraient être utilisées pour le mal.

Pendant des années, les scientifiques se sont efforcés de construire des modèles d’intelligence artificielle capables d’accomplir des tâches mieux que les humains. Les progrès associés ont également été accompagnés de la crainte qu’ils ne rapprochent les humains d’une dystopie de type science-fiction où les robots et la technologie contrôlent le monde.

En 2019, Facebook a créé une IA capable de bluffer et de battre les humains au poker. Plus récemment, un ancien ingénieur de Google a affirmé que LaMDA, le générateur de chatbot artificiellement intelligent de Google, était sensible. L’art créé par l’intelligence artificielle a pu tromper les juges de concours expérimentés, provoquant des débats éthiques.

Selon les experts, bon nombre de ces avancées se sont produites en succession rapide, en raison des progrès du traitement du langage naturel et des algorithmes sophistiqués capables d’analyser de grandes quantités de texte. L’équipe de recherche Meta a décidé de créer quelque chose pour tester à quel point les modèles de langage avancés pourraient devenir, dans l’espoir de créer une IA qui serait généralement impressionnante pour la communauté, a déclaré Noam Brown, un scientifique de l’équipe de recherche Meta.

Ils ont atterri sur le gameplay, qui a souvent été utilisé pour montrer les limites et les avancées de l’intelligence artificielle. Des jeux comme les échecs et le go, joués en Chine, étaient analytiques et les ordinateurs les maîtrisaient déjà. Les méta-chercheurs ont rapidement opté pour la diplomatie, a déclaré Brown, qui n’avait pas de base de règles numériques et reposait beaucoup plus sur les conversations entre les personnes.

L’armée veut utiliser l’intelligence artificielle dans les décisions de combat

Pour le maîtriser, ils ont créé Cicéron. Il était alimenté par deux moteurs d’intelligence artificielle. Un raisonnement stratégique guidé, qui a permis au modèle de prévoir et de créer des façons idéales de jouer au jeu. L’autre dialogue guidé, permettant au modèle de communiquer avec les humains de manière réaliste.

Les scientifiques ont formé le modèle sur de grandes quantités de données textuelles provenant d’Internet et sur environ 50 000 jeux de diplomatie joués en ligne sur WebDiplomacy.net, qui comprenaient des transcriptions de discussions de jeu. Pour le tester, Meta a laissé Cicéron jouer 40 matchs de diplomatie avec des humains dans une ligue en ligne, et il s’est classé parmi les 10% des meilleurs joueurs, selon l’étude.

Les méta-chercheurs ont déclaré que lorsque Cicero était trompeur, son gameplay en souffrait et ils l’ont filtré pour être plus honnête. Malgré cela, ils ont reconnu que le modèle pouvait stratégiquement omettre des informations en cas de besoin. S’il parle à son adversaire, il ne lui dira pas tous les détails de son plan d’attaque, a déclaré Brown.

La technologie Cicero pourrait affecter les produits du monde réel, a déclaré Brown. Les assistants personnels pourraient mieux comprendre ce que veulent les clients. Les personnes virtuelles dans le métaverse pourraient être plus engageantes et interagir avec des manières plus réalistes. C’est formidable de pouvoir créer ces IA capables de battre les humains dans les jeux, a déclaré Brown. Mais ce que nous voulons, c’est une IA capable de coopérer avec les humains dans le monde réel.

La quête pour prédire le crime en utilisant l’intelligence artificielle ne s’arrête jamais

Mais certains experts en intelligence artificielle ne sont pas d’accord. Toyama, de l’Université du Michigan, a déclaré que les scénarios cauchemardesques étaient évidents. Étant donné que le code Cicero est ouvert au public, a-t-il déclaré, des acteurs voyous pourraient le copier et utiliser ses compétences en négociation et en communication pour créer des e-mails convaincants qui escroquent et extorquent les gens contre de l’argent.

Si quelqu’un entraînait le modèle linguistique sur des données telles que des câbles diplomatiques dans WikiLeaks, vous pourriez imaginer un système qui se fait passer pour un autre diplomate ou quelqu’un d’influent en ligne, puis entame une communication avec une puissance étrangère, a-t-il déclaré.

Brown a déclaré que Meta avait mis en place des garanties pour empêcher les dialogues toxiques et filtrer les messages trompeurs, mais il a reconnu que cette préoccupation s’applique à Cicero et à d’autres modèles de traitement du langage. Il y a beaucoup de résultats potentiels positifs et, bien sûr, le potentiel d’utilisations négatives également, a-t-il déclaré.

Malgré les garanties internes, Toyama a déclaré qu’il existe peu de réglementation sur la manière dont ces modèles sont utilisés par le grand public, ce qui soulève une préoccupation sociétale plus large. L’IA est comme la puissance nucléaire de notre époque, a déclaré Toyama. Il a un énorme potentiel à la fois pour le bien et pour le mal, mais je pense que si nous ne commençons pas à pratiquer la régulation du mal, toute la science-fiction dystopique de l’IA deviendra un fait scientifique dystopique.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite