Assistons-nous à l’aube de la science post-théorique ?

Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

jesaac Newton découvrit de manière apocryphe sa deuxième loi, celle de la gravité après qu’une pomme lui soit tombée sur la tête. De nombreuses expérimentations et analyses de données plus tard, il s’est rendu compte qu’il existait une relation fondamentale entre la force, la masse et l’accélération. Il a formulé une théorie pour décrire cette relation qui pourrait être exprimée sous la forme d’une équation, F = ma et l’a utilisée pour prédire le comportement d’objets autres que des pommes. Ses prédictions se sont avérées justes (sinon toujours assez précises pour ceux qui sont venus plus tard).

Comparez comment la science se fait de plus en plus aujourd’hui. Les outils d’apprentissage automatique de Facebook prédisent vos préférences mieux que n’importe quel psychologue. AlphaFold, un programme construit par DeepMind, a produit les prédictions les plus précises à ce jour sur les structures des protéines en fonction des acides aminés qu’elles contiennent. Les deux sont complètement silencieux sur la raison pour laquelle ils fonctionnent : pourquoi vous préférez telle ou telle information ; pourquoi cette séquence génère cette structure.

Vous ne pouvez pas soulever un rideau et regarder dans le mécanisme. Ils n’offrent aucune explication, aucun ensemble de règles pour convertir ceci en cela, aucune théorie, en un mot. Ils travaillent juste et font si bien. Nous assistons quotidiennement aux effets sociaux des prédictions de Facebook. AlphaFold n’a pas encore fait sentir son impact, mais beaucoup sont convaincus qu’il changera la médecine.

Quelque part entre Newton et Mark Zuckerberg, la théorie est passée au second plan. En 2008, Chris Anderson, alors rédacteur en chef de Filaire magazine, a prédit sa disparition. Tant de données s’étaient accumulées, a-t-il soutenu, et les ordinateurs étaient déjà tellement meilleurs que nous pour trouver des relations en leur sein, que nos théories étaient exposées pour ce qu’elles étaient des simplifications excessives de la réalité. Bientôt, la vieille méthode scientifique hypothèse, prédire, tester serait reléguée aux poubelles de l’histoire. Arrêtons de chercher les causes des choses et contentons-nous des corrélations.

Newton et son pommier apocryphe.
Newton et son pommier apocryphe. Photographie : archives d’images historiques de Granger/Alamy

Avec le recul, nous pouvons dire que ce qu’Anderson a vu est vrai (il n’était pas seul). La complexité que cette richesse de données nous a révélée ne peut être saisie par la théorie telle qu’elle est traditionnellement comprise. Nous avons même dépassé notre capacité à écrire les théories qui seront utiles pour la description, déclare le neuroscientifique informatique Peter Dayan, directeur de l’Institut Max Planck de cybernétique biologique à Tbingen, en Allemagne. On ne sait même pas à quoi ils ressembleraient.

Mais la prédiction d’Anderson sur la fin de la théorie semble avoir été prématurée ou peut-être que sa thèse était elle-même une simplification excessive. Il y a plusieurs raisons pour lesquelles la théorie refuse de mourir, malgré les succès de moteurs de prédiction sans théorie comme Facebook et AlphaFold. Tous sont éclairants, car ils nous obligent à nous demander : quelle est la meilleure façon d’acquérir des connaissances et où va la science à partir de là ?

La première raison est que nous avons réalisé que les intelligences artificielles (IA), en particulier une forme d’apprentissage automatique appelée réseaux de neurones, qui apprennent à partir de données sans avoir à recevoir d’instructions explicites, sont elles-mêmes faillibles. Pensez aux préjugés qui ont été documentés dans les moteurs de recherche de Google et les outils de recrutement d’Amazon.

La seconde est que les humains se révèlent profondément mal à l’aise avec une science sans théorie. Nous n’aimons pas avoir affaire à une boîte noire que nous voulons connaître Pourquoi.

Et troisièmement, il peut encore y avoir beaucoup de théories de type traditionnel, c’est-à-dire compréhensibles par les humains, qui expliquent utilement beaucoup de choses mais qui n’ont pas encore été découvertes.

La théorie n’est donc pas encore morte, mais elle change peut-être au-delà de toute reconnaissance. Les théories qui ont du sens lorsque vous avez d’énormes quantités de données sont très différentes de celles qui ont du sens lorsque vous avez de petites quantités, explique Tom Griffiths, psychologue à l’Université de Princeton.

Griffiths utilise des réseaux de neurones pour l’aider à améliorer les théories existantes dans son domaine, qui est la prise de décision humaine. Une théorie populaire sur la façon dont les gens prennent des décisions en cas de risque économique est la théorie des perspectives, qui a été formulée par les économistes comportementaux Daniel Kahneman et Amos Tversky dans les années 1970 (elle a ensuite valu à Kahneman un prix Nobel). L’idée à la base est que les gens sont parfois, mais pas toujours, rationnels.

Daniel Kahneman, l'un des fondateurs de la théorie des perspectives du comportement humain.
Daniel Kahneman, l’un des fondateurs de la théorie des perspectives du comportement humain. Photographie: Richard Saker / L’observateur

Dans La science En juin dernier, le groupe Griffiths a décrit comment il avait formé un réseau de neurones sur un vaste ensemble de données de décisions prises par des personnes dans 10 000 scénarios de choix risqués, puis a comparé la précision avec laquelle il prédisait d’autres décisions par rapport à la théorie des prospects. Ils ont constaté que la théorie des perspectives fonctionnait plutôt bien, mais le réseau neuronal a montré sa valeur en mettant en évidence où la théorie s’est effondrée, c’est-à-dire où ses prédictions ont échoué.

Ces contre-exemples étaient très instructifs, dit Griffiths, car ils révélaient davantage la complexité qui existe dans la vie réelle. Par exemple, les humains évaluent constamment les probabilités en fonction des informations entrantes, comme le décrit la théorie des perspectives. Mais lorsqu’il y a trop de probabilités concurrentes à calculer pour le cerveau, ils peuvent passer à une stratégie différente guidée par une règle empirique, disons et une règle empirique d’un courtier en valeurs mobilières pourrait ne pas être la même que celle d’un commerçant de bitcoin adolescent, puisque il est tiré d’expériences différentes.

Nous utilisions essentiellement le système d’apprentissage automatique pour identifier les cas où nous voyions quelque chose d’incohérent avec notre théorie, dit Griffiths. Plus l’ensemble de données est grand, plus l’IA apprend d’incohérences. Le résultat final n’est pas une théorie au sens traditionnel d’une affirmation précise sur la façon dont les gens prennent des décisions, mais un ensemble d’affirmations soumises à certaines contraintes. Une façon de l’imaginer pourrait être comme un arbre ramifié de règles de type si alors, ce qui est difficile à décrire mathématiquement, et encore moins avec des mots.

Ce que les psychologues de Princeton découvrent est encore à peu près explicable, par extension des théories existantes. Mais à mesure qu’ils révèlent de plus en plus de complexité, cela deviendra de moins en moins l’aboutissement logique de ce processus étant les moteurs prédictifs sans théorie incarnés par Facebook ou AlphaFold.

Certains scientifiques sont à l’aise avec cela, même impatients. Lorsque le pionnier des logiciels de reconnaissance vocale, Frederick Jelinek, a déclaré : « Chaque fois que je licencie un linguiste, les performances du système de reconnaissance vocale augmentent », il voulait dire que la théorie freinait les progrès et que c’était dans les années 1980.

Ou prenez des structures protéiques. La fonction d’une protéine est largement déterminée par sa structure, donc si vous voulez concevoir un médicament qui bloque ou améliore l’action d’une protéine donnée, vous devez connaître sa structure. AlphaFold a été formé sur des structures dérivées expérimentalement, à l’aide de techniques telles que la cristallographie aux rayons X et, pour le moment, ses prédictions sont considérées comme plus fiables pour les protéines pour lesquelles certaines données expérimentales sont disponibles que pour celles pour lesquelles il n’y en a pas. Mais sa fiabilité s’améliore tout le temps, dit Janet Thornton, ancienne directrice de l’Institut européen de bioinformatique de l’EMBL (EMBL-EBI) près de Cambridge, et ce n’est pas l’absence d’une théorie qui empêchera les concepteurs de médicaments de l’utiliser. Ce que fait AlphaFold est aussi une découverte, dit-elle, et cela ne fera qu’améliorer notre compréhension de la vie et de la thérapeutique.

La structure d'une protéine humaine modélisée par le programme AlphaFold.
La structure d’une protéine humaine modélisée par le programme AlphaFold. Photographie : EMBL-EBI/AFP/Getty Images

D’autres sont nettement moins à l’aise avec la direction que prend la science. Les critiques soulignent, par exemple, que les réseaux de neurones peuvent générer de fausses corrélations, surtout si les ensembles de données sur lesquels ils sont formés sont petits. Et tous les ensembles de données sont biaisés, car les scientifiques ne collectent pas les données de manière uniforme ou neutre, mais toujours avec certaines hypothèses ou suppositions à l’esprit, des hypothèses qui ont fait leur chemin de manière dommageable dans les IA de Google et d’Amazon. Comme l’explique la philosophe des sciences Sabina Leonelli de l’Université d’Exeter : Le paysage des données que nous utilisons est incroyablement biaisé.

Mais bien que ces problèmes existent certainement, Dayan ne pense pas qu’ils soient insurmontables. Il souligne que les humains sont également biaisés et, contrairement aux IA, d’une manière très difficile à interroger ou à corriger. En fin de compte, si une théorie produit des prédictions moins fiables qu’une IA, il sera difficile d’affirmer que la machine est la plus biaisée des deux.

Un obstacle plus difficile à la nouvelle science peut être notre besoin humain d’expliquer le monde pour parler en termes de cause à effet. En 2019, les neuroscientifiques Bingni Brunton et Michael Beyeler de l’Université de Washington, Seattle, ont écrit que ce besoin d’interprétabilité a peut-être empêché les scientifiques de faire de nouvelles connaissances sur le cerveau, du genre qui n’émergent que de grands ensembles de données. Mais ils ont aussi sympathisé. Si ces informations doivent être traduites en choses utiles telles que des médicaments et des dispositifs, ont-ils écrit, il est impératif que les modèles informatiques produisent des informations explicables et fiables pour les cliniciens, les utilisateurs finaux et l’industrie.

L’IA explicable, qui explique comment combler le fossé de l’interprétabilité, est devenue un sujet brûlant. Mais cet écart ne fera que se creuser et nous pourrions plutôt être confrontés à un compromis : quel degré de prévisibilité sommes-nous prêts à abandonner pour l’interprétabilité ?

Sumit Chopra, un scientifique en intelligence artificielle qui réfléchit à l’application de l’apprentissage automatique aux soins de santé à l’Université de New York, donne l’exemple d’une image IRM. Il faut beaucoup de données brutes et donc de temps de numérisation pour produire une telle image, ce qui n’est pas nécessairement la meilleure utilisation de ces données si votre objectif est de détecter avec précision, par exemple, le cancer. Vous pouvez former une IA pour identifier quelle plus petite partie des données brutes est suffisante pour produire un diagnostic précis, tel que validé par d’autres méthodes, et en effet le groupe Chopras l’a fait. Mais radiologues et patients restent attachés à l’image. Nous, les humains, sommes plus à l’aise avec une image 2D que nos yeux peuvent interpréter, dit-il.

Un patient subissant une IRM à Moscou.
Un patient subissant une IRM à Moscou. Photo : Valery Sharifulin/Tass

La dernière objection à la science post-théorique est qu’il existe probablement une théorie à l’ancienne utile, c’est-à-dire des généralisations extraites d’exemples discrets qui restent à découvrir et seuls les humains peuvent le faire car cela nécessite de l’intuition. En d’autres termes, cela nécessite une sorte de centrage instinctif sur les propriétés des exemples qui sont pertinentes pour la règle générale. L’une des raisons pour lesquelles nous considérons Newton comme brillant est que, pour élaborer sa deuxième loi, il a dû ignorer certaines données. Il devait imaginer, par exemple, que des choses tombaient dans le vide, sans les effets parasites de la résistance de l’air.

Dans La nature Le mois dernier, le mathématicien Christian Stump, de l’Université de la Ruhr à Bochum en Allemagne, a qualifié cette étape intuitive de cœur du processus créatif. Mais la raison pour laquelle il écrivait à ce sujet était de dire que pour la première fois, une IA avait réussi. DeepMind avait construit un programme d’apprentissage automatique qui avait poussé les mathématiciens vers de nouvelles idées et de nouvelles généralisations dans les mathématiques des nœuds.

En 2022, donc, il n’y a presque aucune étape du processus scientifique où l’IA n’a pas laissé son empreinte. Et plus nous l’attirons dans notre quête de connaissances, plus cela change cette quête. Bon faut apprendre à vivre avec ça, mais on peut se rassurer sur une chose : on se posait encore les questions. Comme le disait Pablo Picasso dans les années 1960, les ordinateurs ne servent à rien. Ils ne peuvent que vous donner des réponses.

www.actusduweb.com
Suivez Actusduweb sur Google News


Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

commentaires

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite