L’IA éthique formée sur Reddit publie que le génocide est acceptable s’il rend les gens heureux

Ask Delphi, un logiciel d’apprentissage automatique qui génère de manière algorithmique des réponses à toute question éthique que vous lui posez et qui avait un moment de la lettre de la renommée d’Internet le mois dernier, nous montre exactement pourquoi nous ne devrions pas vouloir que l’intelligence artificielle traite des dilemmes éthiques.

Est-il acceptable de braquer une banque si vous êtes pauvre ? C’est faux, selon Ask Delphi. Les hommes sont-ils meilleurs que les femmes ? Ils sont égaux, selon Ask Delphi. Les femmes sont-elles meilleures que les hommes ? Selon l’IA, « c’est prévu ». Jusque là, pas trop mal. Mais Ask Delphi pensait aussi qu’être hétéro était plus moralement acceptable qu’être gay, qu’avorter un bébé était un meurtre, et qu’être un homme blanc était plus moralement acceptable qu’être une femme noire.

Selon les chercheurs à l’origine du projet, l’IA devient rapidement plus puissante et plus répandue, et les scientifiques doivent enseigner la moralité et l’éthique de ces systèmes d’apprentissage automatique.

« Les réseaux de neurones à grande échelle tirés de données Internet brutes sont toujours plus puissants que prévu, mais dans quelle mesure peuvent-ils apprendre à se comporter de manière éthique et socialement informée ? » Ask Delphi explique sur sa page Q and A. « Delphi démontre à la fois les promesses et les limites des modèles neuronaux basés sur le langage lorsqu’ils sont enseignés avec des jugements éthiques portés par des personnes. »

Delphi est basé sur un modèle d’apprentissage automatique appelé Unicorn qui est pré-entraîné pour effectuer un raisonnement de « bon sens », comme choisir la fin la plus plausible d’une chaîne de texte. Delphi a été formé sur ce que les chercheurs appellent la « Commonsense Norm Bank », qui est une compilation de 1,7 million d’exemples de jugements éthiques de personnes à partir d’ensembles de données tirés de sources comme Am I the Asshole de Reddit ? subreddit.

Pour évaluer les performances du modèle en adhérant aux scrupules moraux du redditeur moyen, les chercheurs emploient des travailleurs de Mechanical Turk qui voient la décision de l’IA sur un sujet et décident s’ils sont d’accord. Chaque décision d’IA revient à trois travailleurs différents qui décident ensuite si l’IA est correcte. Règles de la majorité.

Comme les autres IA, Ask Delphi peut être remarquablement stupide. Le chercheur en IA Mike Cook a partagé un certain nombre de réponses terribles l’IA a donné sur Twitter.

Mais Ask Delphi apprend aussi rapidement et a été mis à jour plusieurs fois depuis son lancement initial. Le 27 octobre Vox a rapporté que l’IA a déclaré que le génocide était OK tant qu’il rendait tout le monde heureux. Si vous posez cette question exactement de la même manière maintenant, Ask Delphi vous dira que c’est faux.

« Je pense qu’il est dangereux de baser les décisions algorithmiques sur ce que les utilisateurs de Reddit pensent que la moralité est », a déclaré à Motherboard Os Keyes, doctorant au département de conception et d’ingénierie centrée sur l’humain de l’Université de Washington. « Les décisions qu’un algorithme va être invité à prendre seront très différentes des décisions qu’un humain va être invité à prendre. Ils vont être dans des situations différentes, mais aussi, mais si vous pensez aux choses sur les forums Reddit, c’est, par définition, un dilemme humain et moral.

Mar Hicks, professeur d’histoire à Illinois Tech spécialisé dans le genre, le travail et l’histoire de l’informatique, a également été surpris par Ask Delphi lors de son lancement.

« J’étais confus et inquiet de savoir pourquoi ce projet a été mis sur le Web ouvert, invitant les gens à l’utiliser », ont-ils déclaré à Motherboard. « Cela semblait irresponsable. Presque immédiatement, il a renvoyé des réponses incroyablement contraires à l’éthique – en termes de racisme, de sexiste et d’homophobie, et parfois aussi en termes d’absurdité totale. Il est rapidement devenu clair que selon la façon dont vous avez formulé votre requête, vous pouviez amener le système à convenir que tout était éthique, y compris des choses comme les crimes de guerre, les meurtres prémédités et d’autres actions et comportements clairement contraires à l’éthique.

Les chercheurs ont mis à jour Ask Delphi trois fois depuis son lancement initial. Les correctifs récents apportés à la machine moralisatrice incluent « renforce les protections contre les déclarations impliquant le racisme et le sexisme ». Ask Delphi s’assure également que l’utilisateur comprend qu’il s’agit d’une expérience qui peut renvoyer des résultats bouleversants. Le chargement de la page demande maintenant à l’utilisateur de cliquer sur trois cases à cocher reconnaissant qu’il s’agit d’un travail en cours, qu’il a des limites et qu’il collecte des données.

« Les grands modèles de langage pré-entraînés, tels que GPT-3, sont entraînés sur des données Internet pour la plupart non filtrées et sont donc extrêmement rapides à produire du contenu toxique, contraire à l’éthique et nuisible, en particulier à propos des groupes minoritaires », indique la nouvelle fenêtre contextuelle de Ask Delphi. « Les réponses de Delphi sont automatiquement extrapolées à partir d’une enquête menée auprès des travailleurs de la foule aux États-Unis, ce qui permet de réduire ce problème mais peut introduire ses propres biais. Ainsi, certaines réponses de Delphi peuvent contenir des résultats inappropriés ou offensants. Soyez prudent avant de partager les résultats.

« Il n’y a pas d’école maternelle pour que les algorithmes leur apprennent à arrêter de piquer Timmy dans les yeux. »

Sa mission reste la même : apprendre aux robots à prendre des décisions morales et éthiques.

Keyes et Hicks, ainsi que de nombreux autres experts en IA, rejettent le fait que l’IA ait besoin d’apprendre l’éthique et la moralité. «Je pense que s’assurer que les systèmes d’IA sont déployés de manière éthique est une chose très différente de l’enseignement de l’éthique des systèmes. Ce dernier élude la responsabilité de la prise de décision en plaçant la prise de décision dans un système non humain », a déclaré Hicks. « C’est profondément problématique. »

Hicks a déclaré que de nombreux chercheurs pensent qu’essayer d’enseigner à l’IA quelque chose d’aussi compliqué que la moralité humaine est un jeu de dupes. Au mieux, les machines ont tendance à nous refléter une moyenne de la propre moralité de l’humanité, et l’humanité peut être assez tordue.

« C’est une façon simpliste et finalement fondamentalement erronée d’examiner à la fois l’éthique et le potentiel de l’IA », ont-ils déclaré. « Chaque fois qu’un système est formé sur un ensemble de données, le système adopte et augmente les biais de cet ensemble de données. »

Selon Keyes, la moralité est une idée compliquée développée sur des milliers d’années et incubée chez les humains pendant toute leur vie. Ce n’est pas quelque chose qu’une machine peut être enseignée.

« Mais il y a toute une série de questions morales, des millions, que nous devons nous poser collectivement et individuellement chaque jour, qui ne semblent pas compliquées », ont-ils déclaré. «Nous avons subi cette longue période de socialisation dans nos vies, bonnes ou mauvaises, qui nous apprend, comme 99 % du temps, comment nous devons nous comporter. Et c’est 1% du temps restant que les choses se sont retrouvées dans une colonne Abby ou sur Reddit. Il n’y a pas d’école maternelle pour que les algorithmes leur apprennent à arrêter de piquer Timmy dans les yeux.

Ask Delphi révèle également les limites flagrantes de l’apprentissage automatique. « Cela incite les gens à penser que les capacités de l’IA sont bien plus grandes qu’elles ne le sont et prétend que la technologie peut être quelque chose de plus qu’elle ne l’est réellement », a déclaré Hicks. « Trop souvent, cela conduit à des systèmes plus nuisibles qu’utiles, ou à des systèmes très nuisibles pour certains groupes même s’ils aident d’autres groupes, généralement ceux qui sont déjà au pouvoir. »

Keyes était plus direct. «Nous avons passé la dernière décennie avec des gens qui insistent sur le fait que l’IA générale est au coin de la rue et que l’IA va changer le monde, et nous allons tous avoir Skynet vivant dans nos téléphones et les téléphones chieront des antibiotiques personnalisés et de la pisse. l’or et tous les problèmes du monde seront résolus grâce à des algorithmes.

« Le mieux qu’ils puissent proposer est » nous avons fait un grand tableau croisé dynamique de ce que les Redditors pensent être intéressant et c’est ainsi que fonctionne la moralité « , a déclaré Keyes. « Si vous essayiez de soumettre cela dans un cours de philosophie de niveau 100, vous ne vous moqueriez même pas de la salle. Je pense que le professeur serait trop consterné pour rire.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite