Ce programme OpenAI peut donner à l’IA un sens de l’éthique Parfois
Delphi exploite les fruits des progrès récents de l’IA et du langage ( OpenAI ). L’alimentation de très grandes quantités de texte à des algorithmes utilisant des réseaux de neurones simulés mathématiquement a permis des avancées surprenantes.
En juin 2020, des chercheurs d’OpenAI, une entreprise travaillant sur des outils d’IA de pointe, ont fait la démonstration d’un programme appelé GPT-3 qui peut prédire, résumer et générer automatiquement du texte avec ce qui semble souvent être une compétence remarquable, bien qu’il crache également. langage partial et haineux appris à partir du texte qu’il a lu.
Les chercheurs à l’origine de Delphi ont également posé des questions éthiques sur le GPT-3. Ils ont trouvé ses réponses en accord avec celles des travailleurs de la foule un peu plus de 50 pour cent du temps, soit un peu mieux qu’un tirage au sort.
L’amélioration des performances d’un système comme Delphi nécessitera différentes approches d’IA, y compris potentiellement certaines permettant à une machine d’expliquer son raisonnement et d’indiquer quand elle est en conflit.
L’idée de donner aux machines un code moral remonte à des décennies à la fois dans la recherche universitaire et la science-fiction. Les célèbres Trois lois de la robotique d’Isaac Asimov ont popularisé l’idée que les machines pourraient suivre l’éthique humaine, bien que les nouvelles qui exploraient l’idée aient mis en évidence des contradictions dans un raisonnement aussi simpliste.
Choi dit que Delphi ne doit pas être considéré comme une réponse définitive à des questions éthiques. Une version plus sophistiquée pourrait signaler l’incertitude, en raison d’opinions divergentes dans ses données de formation. La vie est pleine de zones grises, dit-elle. Aucun être humain ne sera complètement d’accord, et il n’y a aucun moyen qu’un programme d’IA puisse correspondre aux jugements des gens.
D’autres systèmes d’apprentissage automatique ont affiché leurs propres angles morts moraux. En 2016, Microsoft a publié un chatbot appelé Tay conçu pour apprendre des conversations en ligne. Le programme a été rapidement saboté et a appris à dire des choses offensantes et haineuses.
Les efforts pour explorer les perspectives éthiques liées à l’IA ont également révélé la complexité d’une telle tâche. Un projet lancé en 2018 par des chercheurs du MIT et d’ailleurs cherchait à explorer le point de vue du public sur les problèmes éthiques auxquels pourraient être confrontés les voitures autonomes. Ils ont demandé aux gens de décider, par exemple, s’il valait mieux qu’un véhicule heurte une personne âgée, un enfant ou un voleur. Le projet a révélé des opinions différentes selon les pays et les groupes sociaux. Ceux des États-Unis et d’Europe occidentale étaient plus susceptibles que les répondants d’ailleurs d’épargner l’enfant plutôt qu’une personne plus âgée.
Certains de ces outils de construction d’IA sont désireux de relever les défis éthiques. Je pense que les gens ont raison de souligner les défauts et les échecs du modèle, explique Nick Frosst, CTO de Cohere, une startup qui a développé un grand modèle de langage accessible aux autres via une API. Ils informent sur des problèmes plus larges et plus larges.
Cohere a conçu des moyens de guider la sortie de ses algorithmes, qui sont actuellement testés par certaines entreprises. Il organise le contenu qui est fourni à l’algorithme et entraîne l’algorithme à apprendre à détecter les cas de parti pris ou de langage haineux.
Frosst dit que le débat autour de Delphi reflète une question plus large à laquelle l’industrie de la technologie se débat pour savoir comment construire la technologie de manière responsable. Trop souvent, dit-il, lorsqu’il s’agit de modération de contenu, de désinformation et de biais algorithmique, les entreprises essaient de se laver les mains du problème en faisant valoir que toutes les technologies peuvent être utilisées pour le meilleur et pour le pire.
En matière d’éthique, il n’y a pas de vérité sur le terrain, et parfois les entreprises technologiques abdiquent leur responsabilité parce qu’il n’y a pas de vérité sur le terrain, dit Frosst. La meilleure approche est d’essayer.