L’IA inventant sa propre culture et la transmettant aux humains, selon des sociologues

Une nouvelle étude montre que les humains peuvent apprendre de nouvelles choses à partir de systèmes d’intelligence artificielle et les transmettre à d’autres humains, d’une manière qui pourrait potentiellement influencer la culture humaine au sens large.

La étude, publié lundi par un groupe de chercheurs du Center for Human and Machines de l’Institut Max Planck pour le développement humain, suggère que si les humains peuvent apprendre des algorithmes comment mieux résoudre certains problèmes, les biais humains ont empêché les améliorations de performances de durer aussi longtemps que attendu. Les humains avaient tendance à préférer les solutions d’autres humains à celles proposées par les algorithmes, car elles étaient plus intuitives ou moins coûteuses au départ, même si elles rapportaient plus, plus tard.

« La technologie numérique influence déjà les processus de transmission sociale entre les personnes en fournissant de nouveaux moyens de communication et d’imitation plus rapides », écrivent les chercheurs dans l’étude. « En allant un peu plus loin, nous soutenons que plutôt qu’un simple moyen de transmission culturelle (comme les livres ou Internet), les agents algorithmiques et l’IA peuvent également jouer un rôle actif dans la formation des processus d’évolution culturelle en ligne où les humains et les algorithmes interagissent régulièrement. »

Le cœur de cette recherche repose sur une question relativement simple : si l’apprentissage social, ou la capacité des humains à apprendre les uns des autres, forme la base de la façon dont les humains transmettent la culture ou résolvent des problèmes collectivement, à quoi ressemblerait l’apprentissage social entre les humains et les algorithmes ? ? Considérant les scientifiques ne savent pas toujours et souvent ne peuvent pas se reproduire comment leurs propres algorithmes fonctionnent ou s’améliorent, l’idée que l’apprentissage automatique pourrait influencer l’apprentissage humain – et la culture elle-même – à travers les générations est effrayante.

« Il existe un concept appelé évolution culturelle cumulative, où nous disons que chaque génération tire toujours sur la génération suivante, tout au long de l’histoire humaine », a déclaré Levin Brinkmann, l’un des chercheurs qui a travaillé sur l’étude, à Motherboard. « De toute évidence, l’IA s’appuie sur l’histoire humaine – elle est formée sur des données humaines. Mais nous avons également trouvé intéressant de penser à l’inverse : peut-être qu’à l’avenir, notre culture humaine serait construite sur des solutions qui ont été trouvé à l’origine par un algorithme. »

Un des premiers exemples cités dans la recherche est Go, un jeu de société de stratégie chinois qui a vu un algorithme – AlphaGo – battre le champion du monde humain Lee Sedol en 2016. AlphaGo a fait des mouvements qui étaient extrêmement peu susceptibles d’être effectués par des joueurs humains et ont été appris par soi-même. -jouer au lieu d’analyser les données de jeu humaines. L’algorithme a été rendu public en 2017 et de tels mouvements sont devenus plus courants parmi les joueurs humains, suggérant qu’une forme hybride d’apprentissage social entre humains et algorithmes était non seulement possible mais durable.

Nous savons déjà que les algorithmes peuvent affecter et affectent de manière significative les humains. Ils ne sont pas seulement utilisés pour contrôler ouvriers et citoyens dans les lieux de travail physiques, mais aussi contrôler les travailleurs sur les plateformes numériques et influencer le comportement des individus qui les utilisent. Même les études d’algorithmes ont pressenti l’inquiétante facilité avec laquelle ces systèmes peuvent être utilisés pour toucher à la phrénologie et à la physionomie. UN examen fédéral des algorithmes de reconnaissance faciale en 2019 ont révélé qu’ils étaient en proie à des préjugés raciaux. Un 2020 La nature papier apprentissage automatique utilisé pour suivre les changements historiques dans la façon dont la « fiabilité » a été représentée dans les portraits, mais a créé des diagrammes indiscernables des livrets de phrénologie bien connus et a proposé des conclusions universelles à partir d’un ensemble de données limité aux portraits européens de sujets riches.

« Je ne pense pas que notre travail puisse vraiment dire grand-chose sur la formation de normes ou sur la mesure dans laquelle l’IA peut interférer avec cela », a déclaré Brinkmann. « Nous nous concentrons sur un autre type de culture, ce qu’on pourrait appeler la culture de l’innovation, n’est-ce pas ? Une valeur ou une performance mesurable où vous pouvez dire clairement : « D’accord, ce paradigme, comme avec AlphaGo, est peut-être plus susceptible de mener au succès ou moins probable. » »

Pour l’expérience, les chercheurs ont utilisé des « chaînes de transmission », où ils ont créé une séquence de problèmes à résoudre et les participants ont pu observer la solution précédente (et la copier) avant de la résoudre eux-mêmes. Deux chaînes ont été créées : une avec uniquement des humains, et une hybride humaine-algorithme où les algorithmes suivaient les humains mais ne savaient pas si le joueur précédent était un humain ou un algorithme.

La tâche à résoudre était de trouver « une séquence optimale de mouvements » pour naviguer dans un réseau de six nœuds et recevoir des récompenses à chaque mouvement.

« Comme prévu, nous avons trouvé des preuves d’une amélioration des performances au fil des générations grâce à l’apprentissage social », ont écrit les chercheurs. « L’ajout d’un algorithme avec un biais de résolution de problèmes différent de celui des humains a temporairement amélioré les performances humaines, mais les améliorations n’ont pas été maintenues dans les générations suivantes. Alors que les humains ont copié les solutions de l’algorithme, ils semblaient le faire à un rythme inférieur à celui qu’ils ont copié les solutions d’autres humains avec des performances comparables.

Brinkmann a déclaré à Motherboard que même s’ils étaient surpris que des solutions supérieures ne soient pas plus couramment adoptées, cela était conforme à d’autres recherches suggérant que les préjugés humains dans la prise de décision persistent malgré l’apprentissage social. Pourtant, l’équipe est optimiste que les recherches futures peuvent donner un aperçu de la façon de modifier cela.

« Une chose que nous examinons maintenant est de savoir quels effets collectifs pourraient jouer un rôle ici », a déclaré Brinkmann. « Par exemple, il y a quelque chose appelé » biais contextuel « . Il s’agit vraiment de facteurs sociaux qui peuvent également jouer un rôle, de solutions non intuitives ou étrangères pour un groupe qui peuvent être soutenues. Nous sommes également très enthousiasmés par la question de la communication entre les algorithmes et les humains : à quoi cela ressemble-t-il réellement, quel type de fonctionnalités avons-nous besoin de l’IA pour apprendre ou imiter les solutions de l’IA ? »

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite