Nous ne savons pas si (ou quand) l’intelligence artificielle surpassera l’esprit humain

Cela peut sembler n’être rien de plus qu’un trope de science-fiction passionnant, mais les scientifiques qui étudient l’intelligence artificielle avertissent que la singularité de l’IA, un point où la technologie dépasse de manière irréversible les capacités de l’esprit humain, est une possibilité réelle, et certains disent que cela se produira dans quelques décennies.

Enquêtes auprès d’experts en IA, y compris celui-ci publié dans le Journal de recherche sur l’intelligence artificielle en 2018, ont tendance à constater qu’un nombre important de chercheurs pensent qu’il y a au moins 50% de chances que certaines personnes vivantes aujourd’hui vivent pour voir une singularité de l’IA. Certains l’attendent dans la prochaine décennie.

De Deep Blue à Siri

Le moment où l’IA atteindra l’intelligence au niveau humain marquera un changement profond dans le monde. Une IA aussi sophistiquée pourrait créer une IA de plus en plus avancée. À ce stade, cela pourrait devenir difficile, voire impossible, à contrôler.

Pour certains, l’IA a attiré l’attention du public en 1997 lorsqu’un programme informatique appelé Bleu profond battre Garry Kasparov (alors grand maître mondial des échecs) à son propre jeu. Plus récemment, la technologie a été enseignée pour conduire des voitures, diagnostiquer un cancer et assister avec opération, entre autres applications. Il peut même Traduire langues et te troller sur Twitter. Et, bien sûr, cela aide également beaucoup d’entre nous à effectuer des recherches sur le Web et à planifier notre chemin vers la maison.

Mais ce sont tous des exemples d’IA étroite, qui est programmée pour une tâche spécifique, mais souvent incroyablement complexe. Un programme qui peut battre un maître Go ne peut pas conduire une voiture ; L’IA qui peut repérer une tumeur ne peut pas traduire l’arabe en français. Bien que l’IA étroite soit souvent bien meilleure que les humains dans la seule chose à laquelle elle est entraînée, elle n’est pas au courant de tout ce que les gens peuvent faire. Contrairement à nous, l’IA étroite ne peut pas appliquer son intelligence à tout problème ou objectif qui se présente.

Pendant ce temps, l’intelligence générale artificielle (IAG) pourrait appliquer un ensemble général de connaissances et de compétences à une variété de tâches. Bien qu’il n’existe pas actuellement, AGI ne dépendrait plus d’algorithmes conçus par l’homme pour prendre des décisions ou accomplir des tâches. À l’avenir, AGI pourrait hypothétiquement construire des AGI encore plus intelligents, encore et encore. Et parce que les ordinateurs peuvent évoluer beaucoup plus rapidement que les humains, cela pourrait rapidement aboutir à ce que l’on appelle parfois la superintelligence, une IA bien supérieure à l’intelligence humaine. Il pourrait s’adapter à des situations spécifiques et apprendre au fur et à mesure. C’est ce que les experts veulent dire lorsqu’ils parlent de la singularité de l’IA. Mais à ce stade, nous ne sommes probablement même pas proches.

Quand peut-on s’attendre à la singularité ?

Dans un blog récent Publier, le roboticien et entrepreneur Rodney Brooks a déclaré qu’il pense que le domaine de l’IA est probablement moins avancé de quelques centaines d’années que la plupart des gens ne le pensent. Étaient encore de retour au pays des phlogistiques, n’ayant pas encore compris les éléments, écrivit-il.

Il est également important de noter que nous n’avons toujours pas compris comment fonctionne précisément l’esprit humain, déclare Shane Saunderson, ingénieur en robotique et chercheur au Human Futures Institute de Toronto. Saunderson se décrit comme un peu baissier à l’idée d’une singularité imminente de l’IA. Nous comprenons si peu la psychologie humaine et les neurosciences pour commencer que c’est un peu exagéré de dire que nous ne sommes qu’à 10 ans de la construction d’une intelligence de type humain », dit-il. « Je ne pense pas que nous soyons à 10 ans loin de comprendre notre propre intelligence, et encore moins de la reproduire.

Pourtant, d’autres insistent sur le fait que l’AGI peut être difficile à éviter, même si le calendrier est incertain. Il est assez inévitable que cela se produise à moins que nous, les humains, ne nous effacions d’abord par d’autres moyens, déclare Max Tegmark, un physicien qui étudie l’apprentissage automatique au MIT. Tout comme il était plus facile de construire des avions que de comprendre comment les oiseaux volent, il est probablement plus facile de construire des AGI que de comprendre comment fonctionnent les cerveaux.

Malgré l’absence de consensus sur le sujet, de nombreux scientifiques, dont feu Stephen Hawking, ont mis en garde contre ses dangers potentiels. Si et quand l’IA atteint le point où elle peut continuellement s’améliorer, le destin de notre espèce pourrait dépendre des actions de cette machine super intelligente, prévient Nick Bostrom, un philosophe de l’Université d’Oxford, dans son livre Superintelligence : Chemins, Dangers, Stratégies.

Pourtant, ce destin n’est peut-être pas nécessairement sombre. Les experts soulignent également que l’IA superintelligente pourrait offrir une solution à bon nombre de nos problèmes. Si nous ne savons pas comment lutter contre le changement climatique, éradiquer la pauvreté et assurer la paix dans le monde, peut-être que l’IA le pourra.

Cette technologie remarquable a le potentiel d’aider tout le monde à vivre une vie saine et riche afin que l’humanité puisse s’épanouir comme jamais auparavant, déclare Tegmark, qui est également le fondateur du Future of Life Institute, une organisation qui vise à garantir ces résultats positifs. Pourtant, ajoute-t-il, cela pourrait anéantir l’humanité si ses objectifs ne sont pas alignés sur les nôtres. Ou comme Bostrom l’a dit Superintelligencelorsqu’il s’agit de faire face à une explosion d’intelligence, nous, les humains, sommes comme de petits enfants jouant avec une bombe.

Préparation à l’IAG

Qu’il s’agisse en fin de compte d’une panacée ou d’un appareil apocalyptique, nous ne voulons probablement pas être pris par surprise. S’il y a une chance raisonnable qu’une singularité d’IA soit en route, Tegmark pense que nous devrions nous préparer en conséquence. Si quelqu’un nous disait qu’une flotte d’invasion extraterrestre allait arriver sur Terre dans 30 ans, nous nous y préparerions et ne la détruirions pas comme étant dans 30 ans, dit-il. Tegmark souligne qu’il faudrait au moins trois décennies pour comprendre comment contrôler cette technologie et s’assurer que ses objectifs s’alignent sur les nôtres. Nous devons être prêts non seulement à le contrôler, soutient Tegmark, mais aussi à l’utiliser dans le meilleur intérêt de l’humanité.

Bien sûr, cela suppose que nous puissions tous nous mettre d’accord sur nos objectifs et nos intérêts. Cependant, Tegmark est optimiste sur le fait que nous pourrions nous mettre d’accord sur les bases et travailler ensemble pour nous protéger d’une menace existentielle posée par une IA super intelligente. Si la menace d’une catastrophe climatique ne suffit pas à rassembler l’humanité, peut-être que la promesse et le péril de l’IA superintelligente le seront.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite