Elon Musk veut mettre en pause le développement « dangereux » de l’IA. Bill Gates n’est pas d’accord et il n’est pas le seul
Gagnez McNamee | Getty Images
Si vous avez entendu beaucoup de bavardages pro-IA ces derniers jours, vous n’êtes probablement pas seul.
Les développeurs d’IA, d’éminents éthiciens de l’IA et même le co-fondateur de Microsoft, Bill Gates, ont passé la semaine dernière à défendre leur travail. C’est en réponse à une lettre ouverte publiée la semaine dernière par le Future of Life Institute, signée par le PDG de Tesla, Elon Musk, et le co-fondateur d’Apple, Steve Wozniak, appelant à un arrêt de six mois pour travailler sur des systèmes d’IA capables de rivaliser avec le niveau humain. intelligence.
La lettre, qui compte désormais plus de 13 500 signatures, exprime la crainte que la « course dangereuse » pour développer des programmes tels que ChatGPT d’OpenAI, le chatbot Bing AI de Microsoft et Alphabet’s Bard n’ait des conséquences négatives si elle n’est pas contrôlée, de la désinformation généralisée à la cession d’emplois humains. aux engins.
Mais de larges pans de l’industrie technologique, y compris au moins l’un de ses plus grands sommités, reculent.
« Je ne pense pas que demander à un groupe en particulier de faire une pause résolve les problèmes », a déclaré Gates à Reuters lundi. Une pause serait difficile à imposer dans une industrie mondiale, a ajouté Gates, bien qu’il ait convenu que l’industrie avait besoin de plus de recherches pour « identifier les domaines délicats ».
C’est ce qui rend le débat intéressant, disent les experts : la lettre ouverte peut citer des préoccupations légitimes, mais la solution qu’elle propose semble impossible à atteindre.
Voici pourquoi, et ce qui pourrait arriver ensuite, des réglementations gouvernementales à tout soulèvement potentiel de robots.
Les préoccupations de la lettre ouverte sont relativement simples : « Ces derniers mois, les laboratoires d’IA se sont enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable.
Les systèmes d’IA s’accompagnent souvent de biais de programmation et de problèmes potentiels de confidentialité. Ils peuvent propager largement la désinformation, en particulier lorsqu’ils sont utilisés à des fins malveillantes.
Et il est facile d’imaginer des entreprises essayant d’économiser de l’argent en remplaçant les emplois humains, des assistants personnels aux représentants du service client, par des systèmes linguistiques basés sur l’IA.
L’Italie a déjà temporairement interdit ChatGPT pour des problèmes de confidentialité résultant d’une violation de données OpenAI. Le gouvernement britannique a publié la semaine dernière des recommandations en matière de réglementation et l’Organisation européenne des consommateurs a également appelé les législateurs de toute l’Europe à renforcer la réglementation.
Aux États-Unis, certains membres du Congrès ont appelé à de nouvelles lois pour réglementer la technologie de l’IA. Le mois dernier, la Federal Trade Commission a publié des directives pour les entreprises développant de tels chatbots, ce qui implique que le gouvernement fédéral surveille de près les systèmes d’IA qui peuvent être utilisés par les fraudeurs.
Et plusieurs lois nationales sur la protection de la vie privée adoptées l’année dernière visent à obliger les entreprises à divulguer quand et comment leurs produits d’IA fonctionnent, et à donner aux clients la possibilité de refuser de fournir des données personnelles pour les décisions automatisées par l’IA.
Ces lois sont actuellement en vigueur en Californie, au Connecticut, au Colorado, en Utah et en Virginie.
Au moins une société de sécurité et de recherche sur l’IA n’est pas encore inquiète : les technologies actuelles ne « posent pas de problème imminent », a écrit Anthropic, basé à San Francisco, dans un article de blog le mois dernier.
Anthropic, qui a reçu un investissement de 400 millions de dollars d’Alphabet en février, possède son propre chatbot IA. Il a noté dans son article de blog que les futurs systèmes d’IA pourraient devenir « beaucoup plus puissants » au cours de la prochaine décennie, et la construction de garde-corps maintenant pourrait « contribuer à réduire les risques » à l’avenir.
Le problème : Personne ne sait exactement à quoi pourraient ou devraient ressembler ces garde-corps, a écrit Anthropic.
La capacité de la lettre ouverte à susciter une conversation autour du sujet est utile, a déclaré un porte-parole de l’entreprise à CNBC Make It. Le porte-parole n’a pas précisé si Anthropic soutiendrait une pause de six mois.
Dans un tweet mercredi, le PDG d’OpenAI, Sam Altman, a reconnu qu' »un cadre réglementaire mondial efficace comprenant une gouvernance démocratique » et « une coordination suffisante » entre les principales sociétés d’intelligence artificielle générale (AGI) pourraient aider.
Mais Altman, dont la société financée par Microsoft fabrique ChatGPT et a aidé à développer le chatbot AI de Bing, n’a pas précisé ce que ces politiques pourraient impliquer, ni répondu à la demande de commentaires de CNBC Make It sur la lettre ouverte.
Certains chercheurs soulèvent un autre problème : suspendre la recherche pourrait étouffer les progrès dans une industrie en évolution rapide et permettre aux pays autoritaires développant leurs propres systèmes d’IA d’aller de l’avant.
Mettre en évidence les menaces potentielles de l’IA pourrait encourager les acteurs malveillants à adopter la technologie à des fins néfastes, déclare Richard Socher, chercheur en IA et PDG de la startup de moteur de recherche soutenue par l’IA You.com.
Exagérer l’immédiateté de ces menaces aussi alimente l’hystérie inutile autour du sujet, dit Socher. Les propositions de la lettre ouverte sont « impossibles à appliquer, et elles abordent le problème au mauvais niveau », ajoute-t-il.
La réponse discrète à la lettre ouverte des développeurs d’IA semble indiquer qu’il est peu probable que les géants de la technologie et les startups arrêtent volontairement leur travail.
L’appel de la lettre à une réglementation gouvernementale accrue semble plus probable, d’autant plus que les législateurs américains et européens font déjà pression pour la transparence des développeurs d’IA.
Aux États-Unis, la FTC pourrait également établir des règles obligeant les développeurs d’IA à former uniquement de nouveaux systèmes avec des ensembles de données qui n’incluent pas de fausses informations ou de biais implicites, et à augmenter les tests de ces produits avant et après leur diffusion au public, selon à un avis de décembre du cabinet d’avocats Alston & Bird.
De tels efforts doivent être mis en place avant que la technologie n’aille plus loin, déclare Stuart Russell, informaticien de l’Université de Berkeley et chercheur de pointe en intelligence artificielle qui a cosigné la lettre ouverte.
Une pause pourrait également donner aux entreprises technologiques plus de temps pour prouver que leurs systèmes d’IA avancés ne « présentent pas un risque indu », a déclaré Russell à CNN samedi.
Les deux parties semblent être d’accord sur une chose : les pires scénarios de développement rapide de l’IA valent la peine d’être évités. À court terme, cela signifie offrir de la transparence aux utilisateurs de produits d’IA et les protéger des escrocs.
À long terme, cela pourrait signifier empêcher les systèmes d’IA de dépasser l’intelligence au niveau humain et maintenir une capacité à la contrôler efficacement.
« Si nous construisons ces appareils pour s’occuper de tout pour nous, ils finiront par penser plus vite que nous et ils se débarrasseront des humains lents pour gérer les entreprises plus efficacement », a déclaré Wozniak à l’Australian Financial Review en 2015. Serons-nous les dieux ? Serons-nous les animaux domestiques de la famille ? Ou serons-nous des fourmis sur lesquelles on marche ? »
Correction : Une version antérieure de cette histoire, qui n’incluait pas la citation de Steve Wozniak sur l’impact humain de l’IA, attribuait à tort une citation à Bill Gates.
À NE PAS MANQUER : Vous voulez être plus intelligent et avoir plus de succès avec votre argent, votre travail et votre vie ? Inscrivez-vous à notre nouvelle newsletter!
Répondez à cette enquête et dites-nous comment vous souhaitez faire passer votre argent et votre carrière au niveau supérieur.