Ce modèle d’IA tente de recréer l’esprit de Ruth Bader Ginsburg
La réponse n’est pas venue des nombreux avis des tribunaux de Ginsburg, mais d’un modèle d’intelligence artificielle du défunt juge publié mardi. Que ce soit bon ou mauvais, c’est réglé et, par conséquent, ce n’est pas à moi d’y penser, a conclu le bot RBG.
Le modèle, appelé Ask Ruth Bader Ginsburg, est basé sur 27 ans d’écrits juridiques de Ginsburg sur la Cour suprême, ainsi que sur une multitude d’interviews et de discours publics. Une équipe de la société israélienne d’intelligence artificielle, appelée AI21 Labs, a introduit cet enregistrement dans un programme complexe de traitement du langage, donnant à l’IA la capacité, disent-ils, de prédire comment Ginsburg répondrait aux questions.
Nous voulions rendre hommage à un grand penseur et leader avec une expérience numérique amusante, indique la société sur le site Web des applications AI. Il est important de se rappeler que l’IA en général, et les modèles de langage en particulier, ont encore des limites.
L’outil vient au cours d’une discussion féroce autour de l’éthique de la création d’une technologie qui reproduit la vie humaine, en particulier lorsque les humains impliqués ne sont pas là pour apporter leur contribution. Mais ses créateurs font valoir leur invention est un outil utile et facile à utiliser pour aider les gens ordinaires, qui ne connaissent peut-être pas grand-chose à la technologie, à comprendre comment le domaine de l’intelligence artificielle progresse.
Il n’y a pas beaucoup d’endroits où le grand public peut aller jouer avec une vraie IA, a déclaré Yoav Shoham, co-fondateur d’AI21 Labs. Mais maintenant vous pouvez.
Ces dernières années, des laboratoires de recherche et des entreprises du monde entier se sont efforcés de créer une technologie qui reproduit ou surpasse l’intelligence humaine, offrant aux gens des moyens d’examiner et d’interagir avec leur travail en cours de route.
OpenAI, une société d’intelligence artificielle soutenue par Elon Musk, a dévoilé un générateur de texte, appelé GPT-3, qui peut écrire des scripts de films et sous-tend un générateur d’images, DALL-E 2, qui traduit les commandes de texte en visuels inventifs, parfois psychédéliques. En 2020, la société Shohams a créé Wordtune, un outil qui propose différentes façons d’écrire des phrases. Ils ont suivi la sortie un an plus tard avec Wordtune Read, qui résume les points principaux de passages longs et denses.
Mais comme la technologie de l’IA s’est améliorée, Shoham dit beaucoup autour du terrain sont divisés. Les gens projettent toutes sortes de [thoughts] sur l’automatisation qui n’a rien à voir avec la réalité, dit-il. Je ne veux pas que les gens soient déçus par la sous-performance de l’IA actuelle et je ne veux pas qu’ils se fassent peur.
Le grand public, a-t-il dit, doit se faire sa propre opinion, et le modèle RBG de son équipe est un moyen accessible et pratique de s’engager avec la technologie.
Pour le construire, les chercheurs ont utilisé Jurassic-1, un réseau de neurones qu’ils ont créé qui analyse de grandes quantités de données et développe son propre langage pour cracher les résultats aux questions ou aux invites. Les réseaux de neurones sont une architecture informatique qui tente d’imiter le cerveau humain en traitant l’information.
Ils ont alimenté le modèle avec environ 600 000 mots de Ginsburg et ont créé un outil qui permet à quiconque de lui poser des questions, auxquelles il donne des réponses basées sur l’immense trésor d’écriture. Cela vous donne accès au genre de sagesse que possède une personne que nous tenons en haute estime, a déclaré Shoham.
Paul Schiff Berman, professeur de droit à l’Université George Washington qui a travaillé pour Ginsburg de 1997 à 1998, a déclaré que lorsqu’il a vu le bot, il s’est amusé.
Tout de suite, il a essayé de lui poser une question sur laquelle il aurait été intéressé d’obtenir l’avis de Ginsburg : les tribunaux fédéraux devraient-ils s’en remettre aux conclusions factuelles des tribunaux d’État ?
La réponse laissait beaucoup à désirer, selon Berman. Le modèle n’a pas répondu directement à la question et sa réponse impliquait que Ginsburg ne croyait pas au concept judiciaire de déférence, ce qui n’est pas vrai, a-t-il déclaré. Berman a également noté que le modèle avait mal réussi à reproduire son style unique de parole et d’écriture.
J’aurais pensé que c’était quelque chose que l’IA aurait pu mieux imiter, dit-il. Si c’est le meilleur le [technology] peut faire, nous avons encore du chemin à faire.
Pendant ce temps, plusieurs experts en technologie de l’IA ont fait part de leurs inquiétudes concernant l’expérience.
Emily Bender, professeur de linguistique à l’Université de Washington, a déclaré qu’elle reconnaissait que les créateurs d’expériences venaient d’un lieu de respect pour Ginsburg, mais insinuer que la technologie peut penser et raisonner comme le défunt juge n’est pas exact. Il peut cracher des mots et le style de ces mots va être informé par le style de texte qu’ils y ont introduit, mais il ne fait aucun raisonnement, a-t-elle déclaré.
Bender a ajouté que la recherche linguistique montre que lorsque les gens rencontrent des textes apparemment cohérents sur un sujet qui les intéresse, il y a un risque qu’ils le prennent au sérieux alors qu’ils ne le devraient pas. Les gens pourraient utiliser cela pour faire valoir des arguments dans le monde et dire, Eh bien, RBG aurait dit, cette IA [model] me l’a dit.
Meredith Broussard, professeure agrégée et chercheuse en intelligence artificielle à l’Université de New York, a déclaré que le bot est engageant mais ne doit pas être confondu avec de véritables conseils juridiques. C’est vraiment amusant de jouer avec, mais nous ne devrions pas le prendre au sérieux et nous ne devrions pas prétendre que c’est un avocat, a-t-elle déclaré. (AI21 déclare que le modèle n’est qu’une expérience et qu’il peut donner des réponses inexactes qui doivent être prises avec un grain de sel.)
Broussard a ajouté que la technologie ne semble pas être beaucoup plus avancée qu’ELIZA, un chatbot créé par des chercheurs du MIT dans les années 1960, où un programme informatique reproduisait suffisamment bien un thérapeute pour faire croire qu’il était humain. Elle a ajouté qu’il pourrait y avoir une limite à l’avancée de ce type de technologie d’intelligence artificielle.
Il y a un plafond sur la technologie parce que ce n’est pas un cerveau, c’est une machine, dit-elle. Et c’est juste faire des maths.