L’altruisme efficace pousse une marque dangereuse de sécurité de l’IA

Depuis lors, la quête de la prolifération de modèles linguistiques de plus en plus larges s’est accélérée, et bon nombre des dangers dont nous avions averti, tels que la publication massive de textes haineux et la désinformation, continuent de se manifester. Il y a quelques jours à peine, Meta a publié son Galactica LLM, qui est censé résumer des articles universitaires, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, etc. Seulement trois jours plus tard, la démonstration publique a été retirée après que les chercheurs ont généré des articles de recherche et des entrées wiki sur une grande variété de sujets allant des avantages du suicide, de la consommation de verre pilé et de l’antisémitisme, à la raison pour laquelle les homosexuels sont mauvais.

Cette course ne s’est pas arrêtée aux LLM mais s’est déplacée vers des modèles texte-image comme OpenAIsDALL-E et StabilityAIsStable Diffusion, des modèles qui prennent du texte comme entrée et génèrent des images basées sur ce texte. Les dangers de ces modèles incluent la création de pédopornographie, la perpétuation des préjugés, le renforcement des stéréotypes et la diffusion massive de désinformation, comme le rapportent de nombreux chercheurs et journalistes. Cependant, au lieu de ralentir, les entreprises suppriment les quelques dispositifs de sécurité dont elles disposaient dans leur quête pour se surpasser. Par exemple, OpenAI avait restreint le partage de visages générés photoréalistes sur les réseaux sociaux. Mais après que des startups nouvellement formées comme StabilityAI, qui auraient levé 101 millions de dollars avec une valorisation énorme de 1 milliard de dollars, aient qualifié ces mesures de sécurité de paternalistes, OpenAI a supprimé ces restrictions.

Avec la fondation et le financement d’instituts, d’entreprises, de groupes de réflexion et de groupes de recherche d’EA dans des universités d’élite dédiées à la marque de sécurité de l’IA popularisée par OpenAI, nous sommes sur le point de voir une plus grande prolifération de modèles nuisibles présentés comme une étape vers une AGI bénéfique. Et l’influence commence tôt : les altruistes efficaces offrent des subventions de développement communautaire pour recruter sur les principaux campus universitaires, les chapitres d’EA développant des programmes et enseignant des cours sur la sécurité de l’IA dans des universités d’élite comme Stanford.

L’année dernière, Anthropic, qui est décrite comme une société de sécurité et de recherche sur l’IA et a été fondée par d’anciens vice-présidents de la recherche et de la sécurité d’OpenAI, a levé 704 millions de dollars, la majeure partie de son financement provenant de milliardaires d’EA comme Talin, Muskovitz et Bankman-Fried. Un prochain atelier sur la sécurité de l’IA à NeurIPS, l’une des conférences sur l’apprentissage automatique les plus importantes et les plus influentes au monde, est également annoncé comme étant sponsorisé par FTX Future Fund, une organisation caritative axée sur Bankman-Frieds EA dont l’équipe a démissionné il y a deux semaines. L’atelier annonce 100 000 $ en prix du meilleur article, un montant que je n’ai vu dans aucune discipline universitaire.

Les priorités de recherche suivent le financement, et étant donné les grosses sommes d’argent injectées dans l’IA pour soutenir une idéologie avec des adhérents milliardaires, il n’est pas surprenant que le domaine ait évolué dans une direction promettant un avenir incroyablement grand au coin de la rue tout en proliférant des produits nuisibles. groupes marginalisés dans le présent.

Nous pouvons créer un avenir technologique qui nous sert à la place. Prenez, par exemple, Te Hiku Media, qui a créé une technologie linguistique pour revitaliser te reo Mori, créant une licence de données basée sur le principe Mori dekaitiakitanga, ou tutelle afin que toute donnée prélevée sur les Mori leur profite en priorité. Comparez cette approche avec celle d’organisations comme StabilityAI, qui gratte les œuvres des artistes sans leur consentement ou leur attribution tout en prétendant construire une IA pour le peuple. Nous devons libérer notre imagination de celle qui nous a été vendue jusqu’à présent : nous sauver d’une hypothétique apocalypse AGI imaginé par quelques privilégiés, ou la techno-utopie toujours insaisissable que nous promettent les élites de la Silicon Valley.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite