L’intelligence artificielle enracinera les inégalités mondiales

La course à l’intelligence artificielle s’accélère et les enjeux ne pourraient pas être plus élevés. Les grandes entreprises, notamment Alibaba, DeepMind, Google, IBM, Microsoft, OpenAI et SAP, exploitent une énorme puissance de calcul pour repousser les limites de l’IA et populariser de nouveaux outils d’IA tels que GPT-4 et Bard. Des centaines d’autres acteurs privés et à but non lucratif déploient des applications et des plugins, faisant valoir leurs droits sur ce marché frontalier en évolution rapide qui, selon certains passionnés, bouleversera notre façon de travailler, de jouer, de faire des affaires, de créer de la richesse et de gouverner.

La course à l’intelligence artificielle s’accélère et les enjeux ne pourraient pas être plus élevés. Les grandes entreprises, notamment Alibaba, DeepMind, Google, IBM, Microsoft, OpenAI et SAP, exploitent une énorme puissance de calcul pour repousser les limites de l’IA et populariser de nouveaux outils d’IA tels que GPT-4 et Bard. Des centaines d’autres acteurs privés et à but non lucratif déploient des applications et des plugins, faisant valoir leurs droits sur ce marché frontalier en évolution rapide qui, selon certains passionnés, bouleversera notre façon de travailler, de jouer, de faire des affaires, de créer de la richesse et de gouverner.

Au milieu de tout cet enthousiasme, il y a un sentiment croissant de terreur. Un nombre croissant de titans de la technologie et d’informaticiens ont exprimé une profonde inquiétude quant aux risques existentiels de céder la prise de décision à des algorithmes complexes et, dans un avenir pas si lointain, à des machines super intelligentes qui pourraient brusquement trouver peu d’utilité pour les humains. Une enquête de 2022 a révélé qu’environ la moitié de tous les experts en IA répondants pensaient qu’il y avait au moins une chance sur 10 que ces technologies puissent tous nous condamner. Quel que soit le verdict, comme le révèle le récent témoignage au Congrès américain du PDG d’OpenAI, Sam Altman, l’IA représente un changement sans précédent dans le contrat social qui redéfinira fondamentalement les relations entre les personnes, les institutions et les nations.

À ces inquiétudes existentielles inquiétantes s’ajoute la répartition déjà déséquilibrée du pouvoir et de la richesse, garantissant que les gains des bouleversements futurs reviendront de manière disproportionnée au 1 %. Mais si l’IA menace les emplois de cols blancs et renforce les intérêts non démocratiques dans les pays privilégiés, que dire des retombées dans ces parties du monde où des milliards de personnes travaillent dans le secteur informel sans filets de sécurité, ce qui en fait des cibles encore plus faciles pour les élites au pouvoir et leur numérique. outils? Quelle que soit la manière dont la perturbation de l’IA se déroule dans le monde entier, il y a peu d’espoir que, sans atténuation, garanties et compensations telles que le revenu de base universel, le monde sera un endroit plus équitable pour vivre, travailler ou voter.

Les craintes concernant les risques existentiels posés par l’intelligence artificielle ne sont pas nouvelles. Dans son roman de 1872 Erewhon, Samuel Butler a prophétisé que les machines sensibles finiraient par remplacer les humains. En 1942, le célèbre écrivain de science-fiction Isaac Asimov a énoncé ses trois lois pour la robotique : les robots ne peuvent pas blesser les humains, doivent obéir aux ordres des humains tant que cela ne viole pas la première loi et doivent protéger l’existence des humains tant que cela le fait. pas enfreindre les deux premières lois. Quelques années plus tard, en 1950, Alan Turing imagine des machines capables de converser avec les humains, tandis qu’en 1965, Irving John Good prédit une explosion de l’intelligence pilotée par des machines. Le monde a dû attendre encore un demi-siècle pour que la révolution promise de l’IA arrive.

Et pourtant, malgré toutes les prémonitions historiques, la fureur actuelle contre l’IA est aussi sans précédent qu’elle est particulièrement troublante. D’une part, la dernière génération de grands modèles de langage très avancés et la puissance de calcul qui les anime ne sont plus confinés au laboratoire mais sont déjà utilisés par des centaines de millions de personnes. Une autre source de préoccupation est que certains des défenseurs les plus virulents de l’IA sont désormais convaincus que son utilisation non réglementée représente un risque mortel pour l’humanité dans un avenir proche. Ce qui était autrefois présenté comme une menace théorique lointaine est maintenant un danger clair et présent, à tel point que des technologues tels qu’Eliezer Yudkowsky, Geoffrey Hinton et Max Tegmark et plus de 31 000 autres personnes ont appelé à une pause dans la formation des formes les plus puissantes d’IA. , qu’ils considèrent comme l’un des risques les plus graves pour la société et l’humanité aujourd’hui.

Bien avant la dernière flambée d’anxiété, les gouvernements, les entreprises et les universités d’Amérique du Nord et d’Europe occidentale débattaient des méfaits réels et potentiels associés à l’IA. Leur attention a convergé sur au moins quatre menaces possibles. Le premier est la menace existentielle posée par des machines super intelligentes qui peuvent rapidement éliminer les humains. Le second est le chômage généralisé et accéléré, Goldman Sachs estimant récemment que jusqu’à 300 millions d’emplois risquent d’être remplacés par l’IA. La troisième préoccupation majeure concerne la manière inquiétante dont l’IA imite et partage le texte, la voix et la vidéo et pourrait ainsi amplifier la désinformation et la désinformation. Une quatrième crainte est que l’IA puisse être utilisée pour créer des technologies apocalyptiques telles que des virus biologiques ou cybernétiques avec des conséquences dévastatrices.

Nous ne sommes pas encore à la merci des machines pensantes. À mesure que la sensibilisation aux risques liés à l’IA s’est accrue, les normes et les conseils pour les atténuer ont également augmenté. Mais pour la plupart, ceux-ci sont volontaires, y compris des centaines de protocoles et de principes prônant une conception responsable et la maîtrise de soi. Les priorités communes incluent l’alignement de l’IA sur les meilleurs intérêts des humains et la promotion de la sécurité dans la conception et le déploiement des algorithmes. D’autres objectifs incluent la transparence des algorithmes eux-mêmes, la responsabilité en ce qui concerne leur développement et leur application, la justice et l’équité dans leur utilisation, la confidentialité et la protection des données, la surveillance et le contrôle humains et la conformité aux réglementations. L’accent mis sur l’autosurveillance volontaire commence à changer, les entreprises technologiques elles-mêmes plaidant pour la création d’agences d’IA et l’application de règles plus strictes.

Pourtant, la volonté de créer des garanties est loin d’être œcuménique. À ce jour, la majeure partie du débat sur l’IA et les stratégies possibles pour atténuer les dommages involontaires est concentrée en Occident. La plupart des normes gouvernementales et industrielles actuellement sur la table ont été publiées dans l’Union européenne, aux États-Unis ou dans les États membres de l’Organisation de coopération et de développement économiques, un club de 38 économies avancées. L’UE, par exemple, est sur le point de publier une nouvelle loi sur l’IA axée sur les applications et les systèmes qui présentent un risque inacceptable et élevé. L’accent mis par l’Occident sur l’IA n’est guère surprenant étant donné la densité d’entreprises d’IA, d’investisseurs et d’instituts de recherche travaillant sur l’IA de la Silicon Valley à Tel Aviv, en Israël.

Même ainsi, il convient de souligner que les besoins et les préoccupations de régions telles que l’Amérique latine, l’Afrique subsaharienne, l’Asie du Sud et l’Asie du Sud-Est, où l’IA se développe également rapidement et généreront des effets monumentaux, ne sont pas beaucoup reflétés dans le débat sur l’IA. En d’autres termes, la grande majorité des discussions sur les conséquences et la réglementation de l’IA se déroulent dans des pays dont la population ne représente que 1,3 milliard d’habitants. Beaucoup moins d’attention et de ressources sont consacrées à la résolution de ces mêmes problèmes dans les pays pauvres et émergents qui représentent les 6,7 milliards restants de la population mondiale.

Il s’agit d’une omission troublante, étant donné que bon nombre des conséquences les plus sombres d’une IA mal réglementée résonnent particulièrement dans le soi-disant Sud global. Sans aucun doute, certaines inquiétudes sont mondiales, y compris celles concernant la super-intelligence, les pertes d’emplois et l’accélération des fausses nouvelles. Pourtant, les présages les plus sombres de l’IA représentent tout sauf une affliction d’égalité des chances. Une IA non atténuée pourrait approfondir les clivages sociaux, économiques et numériques entre et au sein des pays. La propagation non réglementée de l’IA pourrait également concentrer encore plus le pouvoir des entreprises, et l’approfondissement du techno-autoritarisme pourrait accélérer la corrosion d’institutions démocratiques déjà endommagées.

Bien que ces dommages induits par l’IA représentent clairement des menaces universelles, leurs impacts non seulement tomberont de manière inégale dans un monde déjà mal divisé, mais pourraient également s’avérer particulièrement paralysants dans les pays à revenu faible et intermédiaire avec des garde-fous réglementaires précaires et des institutions faibles. D’une part, les algorithmes et les ensembles de données générés dans les pays riches et ensuite appliqués dans les pays en développement pourraient reproduire et renforcer les biais et la discrimination en raison de leur manque de sensibilité et de diversité. De plus, les travailleurs à bas salaires et peu qualifiés qui souffrent déjà d’un salaire médiocre et d’une protection du travail laxiste sont particulièrement exposés aux effets destructeurs d’emplois de l’IA. Il y a, bien sûr, de nombreux avantages potentiels à la propagation de l’IA dans les pays du Sud, mais ceux-ci ne peuvent être exploités sans une réglementation adéquate de l’IA, une gouvernance éthique et une meilleure sensibilisation du public à la nécessité de limiter les effets néfastes des IA.

Compte tenu du rythme effréné des progrès de l’IA, le moment est venu de mettre en place des garde-fous réglementaires et d’autres filets de sécurité. Les technologies basées sur l’IA sont rapidement adoptées dans certains des pays les plus inégalitaires au monde en Afrique (y compris la République centrafricaine, le Mozambique et l’Afrique du Sud), au Moyen-Orient (y compris Oman, le Qatar et l’Arabie saoudite) et en Amérique latine (y compris Brésil, Chili et Mexique). Pourtant, de nombreuses lois et principes de base pour régir une IA sûre doivent encore être pleinement développés, et encore moins négociés et débattus publiquement. De même, de grands fournisseurs de technologies américains, européens et chinois introduisent rapidement de puissantes technologies d’IA dans de nombreux pays en développement, s’assurant une part de marché dominante dans la surveillance et d’autres applications d’IA, et anéantissant la concurrence locale. L’utilisation des technologies de l’IA pour renforcer la gouvernance illibérale et autocratique est déjà pleinement visible dans des endroits comme le Cambodge, la Chine, l’Égypte, le Nicaragua, la Russie et le Venezuela.

Le développement sans entrave de l’IA est une bonne nouvelle pour les autocrates et les élites au pouvoir qui sont déjà en place pour récolter le butin du gouvernement et monopoliser les biens publics. À moins que des réglementations efficaces, des mécanismes compensatoires équitables, des garanties sociales et des pare-feu politiques ne puissent être mis en place, l’IA est susceptible d’engendrer une plus grande incertitude et des dommages collatéraux à la sous-classe des globes défiée par le numérique, pour qui la technologie de nouvelle génération sera le miracle de quelqu’un d’autre.

Gabriella Seller, consultante à l’Igarap Institute, et Gordon Laforge, analyste principal des politiques à New America, ont contribué à cet article.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite