OpenAI, Microsoft, Google et Anthropic lancent un forum Frontier Model pour promouvoir une IA sûre
L’objectif du forum est d’établir des « garde-fous » pour atténuer le risque de l’IA. Découvrez les quatre objectifs fondamentaux du groupe, ainsi que les critères d’adhésion.

OpenAI, Google, Microsoft et Anthropic ont annoncé la création du Frontier Model Forum. Avec cette initiative, le groupe vise à promouvoir le développement de modèles d’intelligence artificielle sûrs et responsables en identifiant les meilleures pratiques et en partageant largement l’information dans des domaines tels que la cybersécurité.
Sauter à:
Quel est l’objectif du Frontier Model Forum ?
L’objectif du Frontier Model Forum est de permettre aux entreprises membres de fournir des conseils techniques et opérationnels pour développer une bibliothèque publique de solutions pour soutenir les meilleures pratiques et normes de l’industrie. L’impulsion du forum était la nécessité d’établir « des garde-fous appropriés pour atténuer les risques » à mesure que l’utilisation de l’IA augmente, ont déclaré les sociétés membres dans un communiqué.
En outre, le forum indique qu’il « établira des mécanismes fiables et sécurisés pour partager des informations entre les entreprises, les gouvernements et les parties prenantes concernées concernant la sécurité et les risques liés à l’IA ». Le forum suivra les meilleures pratiques en matière de divulgation responsable dans des domaines tels que la cybersécurité.
VOIR: Microsoft Inspire 2023 : points forts et principales actualités (TechRépublique)
Quels sont les principaux objectifs du Frontier Model Forum ?
Le forum a défini quatre objectifs principaux :
1. Faire progresser la recherche sur la sécurité de l’IA pour promouvoir le développement responsable de modèles pionniers, minimiser les risques et permettre des évaluations indépendantes et standardisées des capacités et de la sécurité.
2. Identifier les meilleures pratiques pour le développement et le déploiement responsables de modèles de pointe, aider le public à comprendre la nature, les capacités, les limites et l’impact de la technologie.
3. Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager leurs connaissances sur les risques liés à la confiance et à la sécurité.
4. Soutenir les efforts visant à développer des applications susceptibles de contribuer à relever les plus grands défis de société, tels que l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.
VOIR: OpenAI embauche des chercheurs pour lutter contre l’IA « superintelligente » (TechRépublique)
Quels sont les critères d’adhésion au Frontier Model Forum ?
Pour devenir membre du forum, les organisations doivent répondre à un ensemble de critères :
- Ils développent et déploient des modèles frontières prédéfinis.
- Ils démontrent un engagement fort envers la sécurité des modèles frontaliers.
- Ils démontrent leur volonté de faire progresser les travaux du forum en soutenant et en participant à des initiatives.
Les membres fondateurs ont souligné dans des déclarations lors de l’annonce que l’IA a le pouvoir de changer la société et qu’il leur incombe donc de veiller à ce qu’elle le fasse de manière responsable par le biais de la surveillance et de la gouvernance.
« Il est essentiel que les entreprises d’IA, en particulier celles qui travaillent sur les modèles les plus puissants, s’alignent sur un terrain d’entente et mettent en avant des pratiques de sécurité réfléchies et adaptables pour garantir que les outils d’IA puissants bénéficient du bénéfice le plus large possible », a déclaré Anna Makanju, vice-présidente des affaires mondiales chez OpenAI. Faire progresser la sécurité de l’IA est un « travail urgent », a-t-elle déclaré, et le forum est « bien placé » pour prendre des mesures rapides.
« Les entreprises qui créent des technologies d’IA ont la responsabilité de garantir qu’elles sont sûres, sécurisées et qu’elles restent sous contrôle humain », a déclaré Brad Smith, vice-président et président de Microsoft. « Cette initiative est une étape essentielle pour rassembler le secteur technologique afin de faire progresser l’IA de manière responsable et de relever les défis afin qu’elle profite à l’ensemble de l’humanité. »
VOIR: Kit de recrutement : Ingénieur Prompt (Prime TechRepublic)
Conseil consultatif du Frontier Model Forum
Un conseil consultatif sera mis en place pour superviser les stratégies et les priorités, avec des membres venant d’horizons divers. Les sociétés fondatrices établiront également une charte, une gouvernance et un financement avec un groupe de travail et un conseil d’administration pour mener ces efforts.
Le conseil d’administration collaborera avec « la société civile et les gouvernements » sur la conception du forum et discutera des moyens de travailler ensemble.
Coopération et critique des pratiques et de la réglementation de l’IA
L’annonce du Frontier Model Forum intervient moins d’une semaine après qu’OpenAI, Google, Microsoft, Anthropic, Meta, Amazon et Inflection ont accepté la liste de la Maison Blanche des huit assurances de sécurité de l’IA. Ces actions récentes sont particulièrement intéressantes à la lumière des récentes mesures prises par certaines de ces entreprises concernant les pratiques et réglementations en matière d’IA.
Par exemple, en juin, le magazine Time a rapporté qu’OpenAI avait fait pression sur l’UE pour édulcorer la réglementation sur l’IA. De plus, la création du forum intervient des mois après que Microsoft a licencié son équipe d’éthique et de société dans le cadre d’une série de licenciements plus larges, remettant en question son engagement en faveur de pratiques responsables en matière d’IA.
« La suppression de l’équipe soulève des inquiétudes quant à la volonté de Microsoft d’intégrer ses principes d’IA à la conception de produits alors que l’organisation cherche à faire évoluer ces outils d’IA et à les mettre à la disposition de ses clients à travers sa suite de produits et services », a écrit Rich Hein dans un article CMSWire de mars 2023.
Autres initiatives de sécurité de l’IA
Ce n’est pas la seule initiative visant à promouvoir le développement de modèles d’IA responsables et sûrs. En juin, PepsiCo a annoncé qu’elle commencerait à collaborer avec l’Institut de Stanford pour l’intelligence artificielle centrée sur l’humain pour « garantir que l’IA soit mise en œuvre de manière responsable et ait un impact positif sur l’utilisateur individuel ainsi que sur la communauté au sens large ».
Le MIT Schwarzman College of Computing a créé l’AI Policy Forum, qui constitue un effort mondial visant à formuler « des orientations concrètes permettant aux gouvernements et aux entreprises de relever les défis émergents » de l’IA tels que la confidentialité, l’équité, les préjugés, la transparence et la responsabilité.
Le Safe AI Lab de l’Université Carnegie Mellon a été créé pour « développer des méthodes d’apprentissage intelligentes artificielles fiables, explicables, vérifiables et bonnes pour tous pour des applications conséquentes ».