Les moteurs de recherche d’intelligence artificielle bousculent la littérature académique

Pour un chercheur tellement tourné vers le passé, Mushtaq Bilal passe beaucoup de temps immergé dans la technologie de demain.

Chercheur postdoctoral à l’Université du Danemark du Sud à Odense, Bilal étudie l’évolution du roman dans la littérature du XIXe siècle. Pourtant, il est peut-être mieux connu pour ses didacticiels en ligne, dans lesquels il sert d’ambassadeur informel entre les universitaires et l’univers en pleine expansion des outils de recherche qui utilisent l’intelligence artificielle (IA).

S’inspirant de sa formation d’érudit littéraire, Bilal déconstruit le processus d’écriture académique depuis des années, mais son travail a maintenant pris une nouvelle direction. Lorsque ChatGPT est entré en scène en novembre, j’ai réalisé que l’on pouvait automatiser de nombreuses étapes à l’aide de différentes applications d’IA, dit-il.

Cette nouvelle génération de moteurs de recherche, propulsée par l’apprentissage automatique et de grands modèles de langage, va au-delà des recherches par mots clés pour extraire des connexions du réseau enchevêtré de la littérature scientifique. Certains programmes, tels que Consensus, donnent des réponses fondées sur la recherche à des questions par oui ou par non ; d’autres, tels que Semantic Scholar, Elicit et Iris, agissent comme des assistants numériques en rangeant les bibliographies, en suggérant de nouveaux articles et en générant des résumés de recherche. Collectivement, les plateformes facilitent bon nombre des premières étapes du processus d’écriture. Les critiques notent, cependant, que les programmes restent relativement non testés et courent le risque de perpétuer les préjugés existants dans le processus de publication universitaire.

Les équipes à l’origine de ces outils disent les avoir construits pour lutter contre la surcharge d’informations et libérer les scientifiques pour qu’ils soient plus créatifs. Selon Daniel Weld de l’Allen Institute for Artificial Intelligence à Seattle, Washington, et scientifique en chef de Semantic Scholars, les connaissances scientifiques se développent si rapidement qu’il est presque impossible de rester au courant des dernières recherches. La plupart des moteurs de recherche vous aident à trouver les papiers, mais ensuite vous êtes seul à essayer de les ingérer, dit-il. En distillant les articles dans leurs points clés, les outils d’IA aident à rendre ces informations accessibles, dit Weld. Nous étions tous de fidèles fans de Google Scholar, ce que je trouve toujours utile, mais je pensais que nous pouvions faire mieux.

La prochaine bonne idée

La clé pour faire mieux réside dans un type de recherche différent. Google Scholar, PubMed et d’autres outils de recherche standard utilisent des mots-clés pour localiser des articles similaires. Les algorithmes d’IA, en revanche, utilisent des comparaisons vectorielles. Les articles sont traduits de mots en un ensemble de nombres, appelés vecteurs, dont la proximité dans l’espace vectoriel correspond à leur similarité. Nous pouvons analyser davantage ce que vous voulez dire, l’esprit de votre requête de recherche, car plus d’informations sur le contexte sont intégrées dans ce vecteur que dans le texte lui-même, explique Megan Van Welie, ingénieur logiciel en chef chez Consensus, qui est basé à San Francisco, Californie.

Bilal utilise des outils d’intelligence artificielle pour suivre les connexions entre les articles dans des terriers de lapin intéressants. Alors qu’il recherchait des descriptions de musulmans dans des romans pakistanais, des recommandations générées par l’IA basées sur ses recherches ont conduit Bilal à la littérature bengali, et il a finalement inclus une section à ce sujet dans sa thèse. Pour son postdoc, Bilal étudie comment les histoires de l’auteur danois Hans Christian Andersens ont été interprétées dans l’Inde coloniale. Tout ce temps consacré à l’histoire de la littérature bengali est revenu en courant, dit-il. Bilal utilise Elicit pour itérer et affiner ses questions, Research Rabbit pour identifier les sources et Scite qui indique à un utilisateur non seulement à quelle fréquence les articles sont cités, mais dans quel contexte suivre le discours académique.

Mohammed Yisa, chercheur clinicien au Medical Research Council Unit The Gambia de la London School of Hygiene & Tropical Medicine, suit Bilal sur Twitter (maintenant connu sous le nom de X) et passe parfois des soirées à tester les plateformes sur lesquelles Bilal tweete.

Yisa aime particulièrement utiliser Iris, un moteur de recherche qui crée des visualisations de type carte qui relient les articles autour de thèmes. L’introduction d’un papier graine dans Iris génère une carte imbriquée de publications connexes, qui ressemble à une carte du monde. Cliquer plus profondément dans la carte revient à zoomer à partir d’une vue à l’échelle du pays vers, disons, les États (sous-thèmes) et les villes (articles individuels).

Je me considère comme un apprenant visuel, et la visualisation de la carte n’est pas quelque chose que j’ai vu auparavant, dit Yisa. Il utilise actuellement les outils pour identifier des articles pour une revue sur l’équité vaccinale, pour voir qui en parle en ce moment et ce qui est dit, mais aussi ce qui n’a pas été dit.

D’autres outils, tels que Research Rabbit et LitMaps, relient les articles par le biais d’une carte réseau de nœuds. Un moteur de recherche destiné aux professionnels de la santé, appelé System Pro, crée une visualisation similaire, mais relie les sujets par leur relation statistique.

Bien que ces recherches reposent sur des algorithmes extractifs pour extraire des extraits utiles, plusieurs plates-formes déploient des fonctions génératives, qui utilisent l’IA pour créer du texte original. Le lecteur sémantique de l’Allen Institutes, par exemple, introduit l’IA dans l’expérience de lecture des PDF de manuscrits, explique Weld. Si les utilisateurs rencontrent un symbole dans une équation ou une citation dans le texte, une carte apparaît avec la définition des symboles ou un résumé généré par l’IA de l’article cité.

Elicit teste en version bêta une fonctionnalité de brainstorming pour aider à générer de meilleures requêtes ainsi qu’un moyen de fournir un résumé multi-articles des quatre premiers résultats de recherche. Il utilise Open AIs ChatGPT mais n’est formé que sur des articles scientifiques, il est donc moins sujet aux erreurs d’hallucinations dans le texte généré qui semblent corrects mais sont en fait inexacts que les recherches basées sur l’ensemble d’Internet, déclare James Brady, responsable de l’ingénierie pour Elicits parent société Oought, basée à Orist, en Espagne. Si vous faites des déclarations liées à votre réputation, les scientifiques veulent quelque chose d’un peu plus fiable auquel ils peuvent faire confiance.

De son côté, Miles-Dei Olufeagba, chercheur biomédical à l’Université d’Ibadan au Nigeria, considère toujours PubMed comme l’étalon-or, le qualifiant de refuge du scientifique médical. Olufeagba a essayé Consensus, Elicit et Semantic Scholar. Les résultats de PubMed peuvent nécessiter plus de temps pour être triés, dit-il, mais ils finissent par trouver des articles de meilleure qualité. Les outils d’IA ont tendance à perdre certaines informations qui peuvent être essentielles à la recherche documentaire, dit-il.

Premiers jours

Les plates-formes d’IA sont également sujettes à certains des mêmes biais que leurs créateurs humains. La recherche a documenté à plusieurs reprises comment les publications universitaires et les moteurs de recherche désavantagent certains groupes, y compris les femmes1 et les gens de couleur2et ces mêmes tendances émergent avec les outils basés sur l’IA.

Les scientifiques dont les noms contiennent des caractères accentués ont décrit des difficultés à faire en sorte que Semantic Scholar crée un profil d’auteur unifié, par exemple. Et parce que plusieurs moteurs, dont Semantic Scholar et Consensus, utilisent des mesures telles que le nombre de citations et les facteurs d’impact pour déterminer le classement, les travaux publiés dans des revues prestigieuses ou sensationnalisés sont inévitablement relégués au premier plan par rapport aux recherches qui pourraient être plus pertinentes, créant ce que Weld appelle un effet riche-devenir plus riche. (Le co-fondateur et directeur général de Consensus, Eric Olson, basé à Boston, dans le Massachusetts, affirme que la pertinence d’un article par rapport à la requête sera toujours la meilleure mesure pour déterminer son classement.)

Aucun de ces moteurs ne marque explicitement les prépublications comme dignes d’un examen plus approfondi, et ils les affichent à côté des articles publiés qui ont fait l’objet d’un examen formel par les pairs. Et avec des questions controversées, comme si les vaccins infantiles causent l’autisme ou si les humains contribuent au réchauffement climatique, Consensus renvoie parfois des réponses qui perpétuent la désinformation ou des affirmations non vérifiées. Pour ces questions chargées, Olson dit que l’équipe examine parfois les résultats manuellement et signale les articles contestés.

En fin de compte, cependant, il incombe aux utilisateurs de vérifier toute réclamation, disent les développeurs. Les plates-formes marquent généralement quand une fonctionnalité est en test bêta, et certaines ont des drapeaux qui indiquent une qualité papier. En plus d’une étiquette contestée, Consensus développe actuellement des moyens de noter le type d’étude, le nombre de participants et la source de financement, ce que fait également Elicit.

Mais Sasha Luccioni, chercheuse scientifique à Montréal, au Canada, au sein de la société d’intelligence artificielle Hugging Face, prévient que certaines entreprises lancent des produits trop tôt parce qu’elles comptent sur les utilisateurs pour les améliorer, une pratique courante dans le monde des start-up technologiques qui ne gélifie pas. bien avec la science. Les groupes sont également devenus plus secrets sur leurs modèles, ce qui rend plus difficile la résolution des manquements éthiques. Luccioni, par exemple, étudie l’empreinte carbone des modèles d’IA, mais dit qu’elle a du mal à accéder même aux données fondamentales telles que la taille du modèle ou sa période de formation, des éléments de base qui ne vous donnent aucune sorte de sauce secrète. Alors que les premiers arrivés tels que Semantic Scholar partagent leur logiciel sous-jacent afin que d’autres puissent s’en inspirer (Consensus, Elicit, Perplexity, Connected Papers et Iris utilisent tous le corpus Semantic Scholar), de nos jours, les entreprises ne fournissent aucune information, et donc cela devient moins sur la science et plus sur un produit.

Pour Weld, cela crée un impératif supplémentaire pour s’assurer que Semantic Scholar est transparent. Je pense que l’IA évolue très rapidement, et l’incitation à rester en avance sur tout le monde peut nous pousser dans des directions dangereuses, dit-il. Mais je pense aussi qu’il y a énormément d’avantages qui peuvent provenir de la technologie de l’IA. Certains des principaux défis auxquels le monde est confronté sont mieux confrontés à des programmes de recherche vraiment dynamiques, et c’est ce qui me fait me lever le matin pour aider à améliorer la productivité des scientifiques.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite