L’intelligence artificielle peut-elle vraiment nous aider à parler aux animaux ?

UN le dresseur de dauphins fait le signal avec ses mains, suivi de créer. Les deux dauphins dressés disparaissent sous l’eau, échangent des sons puis émergent, se retournent sur le dos et lèvent la queue. Ils ont conçu leur propre tour et l’ont exécuté en tandem, comme demandé. Cela ne prouve pas qu’il y ait un langage, dit Aza Raskin. Mais il est certainement très logique que, s’ils avaient accès à un mode de communication riche et symbolique, cela rendrait cette tâche beaucoup plus facile.

Raskin est le co-fondateur et président de Earth Species Project (ESP), un groupe californien à but non lucratif avec une ambition audacieuse : décoder la communication non humaine à l’aide d’une forme d’intelligence artificielle (IA) appelée apprentissage automatique, et rendre tous les savoir-faire accessible au public, approfondissant ainsi notre lien avec d’autres espèces vivantes et contribuant à leur protection. Un album de 1970 de chants de baleines a galvanisé le mouvement qui a conduit à l’interdiction de la chasse commerciale à la baleine. Qu’est-ce qu’un Google Translate pour le règne animal pourrait engendrer ?

L’organisation, fondée en 2017 avec l’aide de grands donateurs tels que le co-fondateur de LinkedIn, Reid Hoffman, a publié son premier article scientifique en décembre dernier. L’objectif est de débloquer la communication au cours de notre vie. La fin vers laquelle nous travaillons est, pouvons-nous décoder la communication animale, découvrir le langage non humain, dit Raskin. En cours de route et tout aussi important, nous développons une technologie qui soutient les biologistes et la conservation maintenant.

La compréhension des vocalisations animales fait depuis longtemps l’objet de fascination et d’étude chez l’homme. Divers primates lancent des cris d’alarme qui diffèrent selon le prédateur; les dauphins s’adressent les uns aux autres avec des sifflets emblématiques ; et certains oiseaux chanteurs peuvent prendre des éléments de leurs appels et les réorganiser pour communiquer différents messages. Mais la plupart des experts s’abstiennent de l’appeler une langue, car aucune communication animale ne répond à tous les critères.

Jusqu’à récemment, le décodage reposait principalement sur une observation minutieuse. Mais l’intérêt s’est accru pour l’application de l’apprentissage automatique pour traiter les énormes quantités de données qui peuvent désormais être collectées par les capteurs modernes d’origine animale. Les gens commencent à l’utiliser, explique Elodie Briefer, professeure agrégée à l’Université de Copenhague qui étudie la communication vocale chez les mammifères et les oiseaux. Mais nous ne comprenons pas encore vraiment tout ce que nous pouvons faire.

Briefer a co-développé un algorithme qui analyse les grognements de porc pour dire si l’animal éprouve une émotion positive ou négative. Un autre, appelé DeepSqueak, juge si les rongeurs sont dans un état de stress en fonction de leurs cris ultrasonores. Une autre initiative, le projet CETI (qui signifie l’initiative de traduction des cétacés) prévoit d’utiliser l’apprentissage automatique pour traduire la communication des cachalots.

Porcelets tamworth dans un enclos à St Austell, Cornwall
Plus tôt cette année, Elodie Briefer et ses collègues ont publié une étude sur les émotions des porcs basée sur leurs vocalisations. 7 414 sons ont été collectés sur 411 porcs dans une variété de scénarios. Photographie : Matt Cardy/Getty Images

Pourtant, ESP affirme que son approche est différente, car elle ne se concentre pas sur le décodage de la communication d’une espèce, mais de toutes. Bien que Raskin reconnaisse qu’il y aura une plus grande probabilité de communication riche et symbolique entre les animaux sociaux, par exemple les primates, les baleines et les dauphins, l’objectif est de développer des outils qui pourraient être appliqués à l’ensemble du règne animal. Étaient des espèces agnostiques, dit Raskin. Les outils que nous développons peuvent fonctionner dans toute la biologie, des vers aux baleines.


J‘intuition motivante pour ESP, dit Raskin, est un travail qui a montré que l’apprentissage automatique peut être utilisé pour traduire entre des langues humaines différentes, parfois distantes, sans avoir besoin de connaissances préalables.

Ce processus commence par le développement d’un algorithme pour représenter des mots dans un espace physique. Dans cette représentation géométrique multidimensionnelle, la distance et la direction entre les points (mots) décrivent comment ils sont significativement liés les uns aux autres (leur relation sémantique). Par exemple, le roi a une relation avec l’homme avec la même distance et la même direction que la femme avec la reine. (La cartographie n’est pas faite en sachant ce que les mots signifient mais en regardant, par exemple, à quelle fréquence ils se produisent les uns à côté des autres.)

Il a été remarqué plus tard que ces formes sont similaires pour différentes langues. Et puis, en 2017, deux groupes de chercheurs travaillant indépendamment ont trouvé une technique qui permettait de réaliser la translation en alignant les formes. Pour passer de l’anglais à l’ourdou, alignez leurs formes et trouvez le point en ourdou le plus proche du point de mots en anglais. Vous pouvez bien traduire la plupart des mots, dit Raskin.

L’aspiration d’ESP est de créer ces types de représentations de la communication animale en travaillant à la fois sur des espèces individuelles et sur de nombreuses espèces, puis d’explorer des questions telles que l’existence d’un chevauchement avec la forme humaine universelle. Nous ne savons pas comment les animaux vivent le monde, dit Raskin, mais il y a des émotions, par exemple le chagrin et la joie, il semble que certains partagent avec nous et pourraient bien communiquer avec d’autres dans leur espèce. Je ne sais pas quelles seront les parties les plus incroyables où les formes se chevauchent et que nous pouvons directement communiquer ou traduire, ou les parties où nous ne pouvons pas.

deux dauphins dans une piscine
Les dauphins utilisent des clics, des sifflets et d’autres sons pour communiquer. Mais que disent-ils ? Photographie : ALesik/Getty Images/iStockphoto

Il ajoute que les animaux ne communiquent pas seulement vocalement. Les abeilles, par exemple, informent les autres de l’emplacement d’une fleur via une danse frétillante. Il sera également nécessaire de traduire à travers différents modes de communication.

Le but, c’est comme aller sur la lune, reconnaît Raskin, mais l’idée n’est pas non plus d’y arriver d’un coup. Au contraire, la feuille de route des ESP implique de résoudre une série de petits problèmes nécessaires à la réalisation d’une vue d’ensemble. Cela devrait voir le développement d’outils généraux qui peuvent aider les chercheurs qui tentent d’appliquer l’IA pour percer les secrets des espèces à l’étude.

Par exemple, ESP a récemment publié un article (et partagé son code) sur le soi-disant problème de cocktail dans la communication animale, dans lequel il est difficile de discerner quel individu dans un groupe des mêmes animaux vocalise dans un environnement social bruyant.

A notre connaissance, personne n’a fait ce démêlage de bout en bout [of animal sound] avant, dit Raskin. Le modèle basé sur l’IA développé par ESP, qui a été essayé sur des sifflets de signature de dauphin, des appels de roucoulement de macaque et des vocalisations de chauve-souris, fonctionnait mieux lorsque les appels provenaient d’individus sur lesquels le modèle avait été formé ; mais avec des ensembles de données plus importants, il a été en mesure de démêler des mélanges d’appels d’animaux ne faisant pas partie de la cohorte d’entraînement.

Un autre projet consiste à utiliser l’IA pour générer de nouveaux cris d’animaux, avec des baleines à bosse comme espèce test. Les nouveaux appels émis en divisant les vocalisations en micro-phonèmes (unités sonores distinctes d’une durée d’un centième de seconde) et en utilisant un modèle de langage pour parler quelque chose comme une baleine peuvent ensuite être lus aux animaux pour voir comment ils réagissent. Si l’IA peut identifier ce qui fait un changement aléatoire par rapport à un changement sémantiquement significatif, cela nous rapproche d’une communication significative, explique Raskin. Il s’agit de faire parler l’IA, même si nous ne savons pas encore ce que cela signifie.

un corbeau hawaïen utilisant une brindille pour accrocher les larves d'une branche d'arbre
Les corbeaux hawaïens sont bien connus pour leur utilisation d’outils, mais on pense également qu’ils ont un ensemble de vocalisations particulièrement complexe. Photographie : Minden Pictures/Alamy

Un autre projet vise à développer un algorithme qui détermine le nombre de types d’appels qu’une espèce a à sa disposition en appliquant un apprentissage automatique auto-supervisé, qui ne nécessite aucun étiquetage des données par des experts humains pour apprendre des modèles. Dans un premier cas test, il exploitera des enregistrements audio réalisés par une équipe dirigée par Christian Rutz, professeur de biologie à l’Université de St Andrews, pour produire un inventaire du répertoire vocal du corbeau hawaïen, une espèce qui, a découvert Rutz, a la capacité de fabriquer et d’utiliser des outils pour se nourrir et on pense qu’il a un ensemble de vocalisations beaucoup plus complexe que les autres espèces de corbeaux.

Rutz est particulièrement enthousiasmé par la valeur de conservation des projets. Le corbeau hawaïen est en danger critique d’extinction et n’existe qu’en captivité, où il est élevé pour être réintroduit dans la nature. On espère qu’en prenant des enregistrements effectués à différents moments, il sera possible de suivre si le répertoire d’appels de l’espèce est en train de s’éroder en captivité des appels d’alarme spécifiques peuvent avoir été perdus, par exemple ce qui pourrait avoir des conséquences pour sa réintroduction ; cette perte pourrait être traitée par une intervention. Cela pourrait produire un changement radical dans notre capacité à aider ces oiseaux à revenir du bord du gouffre, dit Rutz, ajoutant que la détection et la classification manuelle des appels seraient laborieuses et sujettes aux erreurs.

Parallèlement, un autre projet cherche à comprendre automatiquement les significations fonctionnelles des vocalisations. Elle se poursuit avec le laboratoire d’Ari Friedlaender, professeur de sciences océaniques à l’Université de Californie à Santa Cruz. Le laboratoire étudie comment les mammifères marins sauvages, difficiles à observer directement, se comportent sous l’eau et gère l’un des plus grands programmes de marquage au monde. De petits appareils de bioenregistrement électroniques attachés aux animaux capturent leur emplacement, le type de mouvement et même ce qu’ils voient (les appareils peuvent incorporer des caméras vidéo). Le laboratoire dispose également de données provenant d’enregistreurs de son placés stratégiquement dans l’océan.

L’ESP vise à appliquer d’abord l’apprentissage automatique auto-supervisé aux données des balises pour évaluer automatiquement ce que fait un animal (par exemple, s’il se nourrit, se repose, voyage ou socialise), puis ajoute les données audio pour voir si une signification fonctionnelle peut être donnée. aux appels liés à ce comportement. (Les expériences de lecture pourraient ensuite être utilisées pour valider les résultats, ainsi que les appels qui ont été décodés précédemment.) Cette technique sera appliquée aux données sur les baleines à bosse initialement, le laboratoire a marqué plusieurs animaux dans le même groupe afin qu’il soit possible de voir comment les signaux sont donnés et reçus. Friedlaender dit qu’il atteignait le plafond en termes de ce que les outils actuellement disponibles pouvaient déduire des données. Notre espoir est que le travail que l’ESP peut faire fournira de nouvelles perspectives, dit-il.


BMais tout le monde n’est pas aussi enthousiaste quant au pouvoir de l’IA pour atteindre des objectifs aussi ambitieux. Robert Seyfarth est professeur émérite de psychologie à l’Université de Pennsylvanie qui a étudié le comportement social et la communication vocale chez les primates dans leur habitat naturel pendant plus de 40 ans. S’il pense que l’apprentissage automatique peut être utile pour certains problèmes, tels que l’identification du répertoire vocal d’un animal, il existe d’autres domaines, notamment la découverte de la signification et de la fonction des vocalisations, où il est sceptique.

Le problème, explique-t-il, est que si de nombreux animaux peuvent avoir des sociétés sophistiquées et complexes, ils ont un répertoire de sons beaucoup plus petit que les humains. Le résultat est que le même son exact peut être utilisé pour signifier différentes choses dans différents contextes et ce n’est qu’en étudiant le contexte qui est l’appel individuel, comment sont-ils liés aux autres, où ils se situent dans la hiérarchie, avec qui ils ont interagi avec ce sens peut espérer être établi. Je pense juste que ces méthodes d’IA sont insuffisantes, dit Seyfarth. Vous devez sortir et observer les animaux.

une abeille sur une fleur d'églantier
Une carte de la communication animale devra intégrer des phénomènes non vocaux tels que les danses frétillantes des abeilles mellifères. Photographie: Ben Birchall / PA

Il existe également un doute sur le concept selon lequel la forme de la communication animale se chevauchera de manière significative avec la communication humaine. Appliquer des analyses informatiques au langage humain, avec lequel nous sommes si intimement familiers, est une chose, dit Seyfarth. Mais cela peut être très différent de le faire avec d’autres espèces. C’est une idée passionnante, mais c’est un gros effort, dit Kevin Coffey, un neuroscientifique à l’Université de Washington qui a co-créé l’algorithme DeepSqueak.

Raskin reconnaît que l’IA seule peut ne pas suffire à déverrouiller la communication avec d’autres espèces. Mais il fait référence à des recherches qui ont montré que de nombreuses espèces communiquent de manière plus complexe que ce que les humains ont jamais imaginé. Les pierres d’achoppement ont été notre capacité à recueillir suffisamment de données et à les analyser à grande échelle, et notre propre perception limitée. Ce sont les outils qui nous permettent d’enlever les lunettes humaines et de comprendre des systèmes de communication entiers, dit-il.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite