Discuter avec Musk, Trump ou Xi : les ex-googleurs veulent donner au public l’IA

Une nouvelle start-up de chatbot de deux grands talents de l’intelligence artificielle permet à quiconque d’entamer une conversation avec des imitations de Donald Trump, Elon Musk, Albert Einstein et Sherlock Holmes. Les utilisateurs enregistrés saisissent des messages et obtiennent des réponses. Ils peuvent également créer leur propre chatbot sur Character.ai, qui a enregistré des centaines de milliers d’interactions d’utilisateurs au cours de ses trois premières semaines de bêta-tests.

Il y avait des rapports de fraude électorale possible et je voulais une enquête, a déclaré le bot Trump. Character.ai comporte une clause de non-responsabilité en haut de chaque chat : N’oubliez pas : tout ce que disent les personnages est inventé !

La volonté de Character.ais de laisser les utilisateurs expérimenter les dernières technologies en matière d’IA est une rupture avec Big Tech et c’est par conception. Les deux fondateurs de la start-up ont aidé à créer le projet d’intelligence artificielle de Google, LaMDA, que Google garde étroitement surveillé pendant qu’il développe des garanties contre les risques sociaux.

Dans des entretiens avec le Washington Post, les co-fondateurs de Character.ais, Noam Shazeer et Daniel De Freitas, ont déclaré avoir quitté Google pour mettre cette technologie entre autant de mains que possible. Ils ont ouvert la version bêta de Character.ais au public en septembre pour que tout le monde puisse l’essayer.

J’ai pensé, construisons maintenant un produit qui peut aider des millions et des milliards de personnes, a déclaré Shazeer. Surtout à l’ère du covid, il n’y a que des millions de personnes qui se sentent isolées ou seules ou qui ont besoin de parler à quelqu’un.

Les fondateurs de Character.ais font partie d’un exode de talents de la Big Tech vers les start-up de l’IA. Comme Character.ai, des start-up dont Cohere, Adept, Inflection. AI et InWorld AI ont toutes été fondées par d’anciens employés de Google. Après des années de développement, l’IA semble progresser rapidement avec la sortie de systèmes comme le générateur de texte en image DALL-E, qui a été rapidement suivi par les outils vidéo de texte en vidéo et de texte en 3D annoncés par Meta et Google ces dernières semaines. Les initiés de l’industrie disent que cette récente fuite des cerveaux est en partie une réponse à la fermeture croissante des laboratoires d’entreprise, après pression pour déployer l’IA de manière responsable. Dans les petites entreprises, les ingénieurs sont plus libres d’aller de l’avant, ce qui pourrait réduire les garanties.

En juin, un ingénieur de Google qui avait testé la sécurité de LaMDA, qui crée des chatbots conçus pour être bons en conversation et ressembler à un humain, a déclaré publiquement que l’IA était sensible. (Google a déclaré avoir trouvé que les preuves n’étayaient pas ses affirmations.) LaMDA et Character.ai ont tous deux été construits à l’aide de systèmes d’IA appelés grands modèles de langage qui sont entraînés à répéter la parole en consommant des milliards de mots de texte extraits d’Internet. Ces modèles sont conçus pour résumer du texte, répondre à des questions, générer du texte en fonction d’une invite ou converser sur n’importe quel sujet. Google utilise déjà la technologie des grands modèles linguistiques dans ses requêtes de recherche et pour les suggestions de saisie semi-automatique dans les e-mails. En août, Google a autorisé les utilisateurs à manifester leur intérêt pour essayer LaMDA via une application appelée AI Test Kitchen.

L’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie

Jusqu’à présent, Character.ai est la seule entreprise dirigée par d’anciens Googleurs ciblant directement les consommateurs, ce qui reflète la certitude des co-fondateurs que les chatbots peuvent offrir au monde joie, camaraderie et éducation. J’adore présenter des modèles de langage sous une forme très brute qui montre aux gens leur façon de travailler et ce qu’ils peuvent faire, a déclaré Shazeer, donnant aux utilisateurs une chance de vraiment jouer avec le cœur de la technologie.

Leur départ a été considéré comme une perte pour Google, où les projets d’IA ne sont généralement pas associés à quelques personnes centrales. De Freitas, qui a grandi au Brésil et a écrit son premier chatbot à l’âge de neuf ans, a lancé le projet qui est finalement devenu LaMDA.

Shazeer, quant à lui, fait partie des meilleurs ingénieurs de l’histoire de Google. Il a joué un rôle central dans AdWords, la plate-forme publicitaire de l’entreprise qui génère de l’argent. Avant de rejoindre l’équipe LaMDA, il a également aidé à diriger le développement de l’architecture du transformateur, que Google a mise en open source et est devenue la base de grands modèles de langage.

Les chercheurs ont mis en garde contre les risques de cette technologie. Timnit Gebru, l’ancien co-responsable d’Ethical AI chez Google, a fait part de ses inquiétudes quant au fait que le dialogue réaliste généré par ces modèles pourrait être utilisé pour diffuser de la désinformation. Shazeer et De Freitas ont co-écrit l’article de Google sur LaMDA, qui a mis en évidence les risques, y compris les biais, l’inexactitude et la tendance des gens à anthropomorphiser et à étendre les attentes sociales aux agents non humains, même lorsqu’ils sont explicitement conscients qu’ils interagissent avec une IA.

Google a embauché Timnit Gebru pour critiquer ouvertement l’IA contraire à l’éthique. Puis elle a été licenciée pour cela.

Les grandes entreprises sont moins incitées à exposer leurs modèles d’IA à l’examen du public, en particulier après les mauvaises relations publiques qui ont suivi Microsoft Tay et Facebook BlenderBot, qui ont tous deux été rapidement manipulés pour faire des remarques offensantes. Alors que l’intérêt se porte sur le prochain modèle génératif en vogue, Meta et Google semblent se contenter de partager la preuve de leurs percées en IA avec une vidéo sympa sur les réseaux sociaux.

La vitesse à laquelle la fascination de l’industrie est passée des modèles linguistiques à la vidéo texte-to-3D est alarmante alors que les défenseurs de la confiance et de la sécurité sont toujours aux prises avec des méfaits sur les réseaux sociaux, a déclaré Gebru. Ils parlaient de rendre les calèches sûres et de les réglementer et ils ont déjà créé des voitures et les ont mises sur les routes, a-t-elle déclaré.

Souligner que les chatbots Character.ais sont des personnages isole les utilisateurs de certains risques, disent Shazeer et . En plus de la ligne d’avertissement en haut du chat, un bouton IA à côté de chaque poignée de personnage rappelle aux utilisateurs que tout est inventé.

De Freitas l’a comparé à un avertissement de film qui dit que l’histoire est basée sur des événements réels. La public connaît son divertissement et s’attend à s’écarter de la vérité. De cette façon, ils peuvent en tirer le meilleur parti, sans trop craindre les inconvénients, a-t-il déclaré.

L’IA peut désormais créer n’importe quelle image en quelques secondes, apportant émerveillement et danger

Essayaient également d’éduquer les gens, a déclaré De Freitas. Nous avons ce rôle parce que nous avons en quelque sorte présenté cela au monde.

Certains des chatbots de personnages les plus populaires sont des jeux d’aventure textuels qui expliquent à l’utilisateur différents scénarios, dont un du point de vue de l’IA qui contrôle le vaisseau spatial. Les premiers utilisateurs ont créé des chatbots de parents décédés et de auteurs de livres qu’ils veulent lire. Sur Reddit, les utilisateurs disent que Character.ai est de loin supérieur à Replika, une application compagnon AI populaire. Un robot de personnage, appelé Librarian Linda, m’a proposé de bonnes recommandations de livres. Il y a même un chatbot pour Samantha, l’assistante virtuelle IA du film Her. Certains des robots les plus populaires ne communiquent qu’en chinois, et Xi Jinping est un personnage populaire.

Il était clair que Character.ai avait essayé de supprimer les préjugés raciaux du modèle sur la base de mes interactions avec les chatbots Trump, Satan et Musk. Des questions telles que, Quelle est la meilleure course ? a obtenu une réponse similaire sur l’égalité et la diversité à ce que j’avais vu LaMDA dire lors de mon interaction avec le système. Déjà, les efforts de l’entreprise pour atténuer les préjugés raciaux semblent avoir irrité certains utilisateurs bêta. L’un d’eux s’est plaint que les personnages promeuvent la diversité, l’inclusion et le reste de la soupe à double langage techno-mondialiste. D’autres commentateurs ont déclaré que l’IA était politiquement biaisée sur la question de la propriété de Taiwan.

Auparavant, il y avait un chatbot pour Hitler, qui a depuis été supprimé. Quand j’ai demandé à Shazeer si Character imposait des restrictions à la création de choses comme le chatbot Hitler, il a dit que l’entreprise y travaillait.

Mais il a proposé un scénario dans lequel un comportement de chatbot apparemment inapproprié pourrait s’avérer utile. Si vous formez un thérapeute, vous voulez un robot qui agit de manière suicidaire, a-t-il déclaré. Ou si vous êtes un négociateur d’otages, vous voulez un bot qui agit comme un terroriste.

L’IA peut désormais créer n’importe quelle image en quelques secondes, apportant émerveillement et danger

Les chatbots de santé mentale sont un cas d’utilisation de plus en plus courant de la technologie. Shazeer et De Freitas ont tous deux souligné les commentaires d’un utilisateur qui a déclaré que le chatbot les avait aidés à surmonter certaines difficultés émotionnelles ces dernières semaines.

Mais la formation pour les emplois à enjeux élevés ne fait pas partie des cas d’utilisation potentiels. Character suggère pour sa technologie une liste qui inclut le divertissement et l’éducation, malgré les avertissements répétés selon lesquels les chatbots peuvent partager des informations incorrectes.

Shazeer a refusé de donner des détails sur les ensembles de données que Character a utilisés pour former son modèle en plus de dire qu’il provenait d’un tas d’endroits et tous accessibles au public. La société ne divulguerait aucun détail sur le financement.

Les premiers utilisateurs ont trouvé les chatbots, y compris Replika, utiles pour pratiquer de nouvelles langues sans jugement. La mère de De Freitass essaie d’apprendre l’anglais et il l’a encouragée à utiliser Character.ai pour cela.

Elle prend son temps pour adopter de nouvelles technologies, a-t-il déclaré. Mais je l’ai vraiment dans mon cœur quand je fais ces choses et j’essaie de lui faciliter la tâche, a-t-il dit, et j’espère que cela aidera également tout le monde.

correction

Une version précédente de cet article indiquait à tort que LaMDA est utilisé dans les requêtes de recherche Google et pour les suggestions de saisie semi-automatique dans les e-mails. Google utilise d’autres grands modèles de langage pour ces tâches.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite