OpenAI déclare avoir commencé à former un nouveau modèle d’IA phare

OpenAI a annoncé mardi avoir commencé à former un nouveau modèle phare d’intelligence artificielle qui succéderait à la technologie GPT-4 qui pilote son chatbot en ligne populaire, ChatGPT.

La start-up de San Francisco, l’une des principales sociétés mondiales d’IA, a déclaré dans un article de blog qu’elle s’attendait à ce que le nouveau modèle apporte le prochain niveau de capacités alors qu’elle s’efforçait de construire l’intelligence artificielle générale, ou AGI, une machine qui peut faire tout ce que le cerveau humain peut faire. Le nouveau modèle serait un moteur pour les produits d’IA, notamment des chatbots, des assistants numériques tels que Siri d’Apple, des moteurs de recherche et des générateurs d’images.

OpenAI a également déclaré qu’elle créait un nouveau comité de sûreté et de sécurité pour explorer la manière dont elle devrait gérer les risques posés par le nouveau modèle et les technologies futures.

« Bien que nous soyons fiers de construire et de lancer des modèles à la pointe de l’industrie en termes de capacités et de sécurité, nous nous félicitons d’un débat approfondi à ce moment important », a déclaré la société.

OpenAI vise à faire progresser la technologie de l’IA plus rapidement que ses concurrents, tout en apaisant les critiques qui affirment que la technologie devient de plus en plus dangereuse, contribuant à propager la désinformation, à remplacer des emplois et même à menacer l’humanité. Les experts ne sont pas d’accord sur le moment où les entreprises technologiques atteindront l’intelligence artificielle générale, mais des entreprises comme OpenAI, Google, Meta et Microsoft n’ont cessé d’augmenter la puissance des technologies d’IA depuis plus d’une décennie, démontrant un bond notable tous les deux ou trois ans environ.

OpenAIs GPT-4, sorti en mars 2023, permet aux chatbots et à d’autres applications logicielles de répondre aux questions, de rédiger des e-mails, de générer des dissertations et d’analyser des données. Une version mise à jour de la technologie, dévoilée ce mois-ci et qui n’est pas encore largement disponible, peut également générer des images et répondre aux questions et commandes d’une voix hautement conversationnelle.

Quelques jours après qu’OpenAI a montré la version mise à jour appelée GPT-4o, l’actrice Scarlett Johansson a déclaré qu’elle utilisait une voix qui ressemblait étrangement à la mienne. Elle a déclaré qu’elle avait refusé les efforts du directeur général d’OpenAI, Sam Altman, pour obtenir une licence pour sa voix pour le produit et qu’elle avait engagé un avocat et demandé à OpenAI de cesser d’utiliser la voix. La société a déclaré que la voix n’était pas celle de Mme Johanssons.

Des technologies comme GPT-4o acquièrent leurs compétences en analysant de grandes quantités de données numériques, notamment des sons, des photos, des vidéos, des articles Wikipédia, des livres et des articles de presse. Le New York Times a poursuivi OpenAI et Microsoft en décembre, alléguant une violation du droit d’auteur sur le contenu d’actualité lié aux systèmes d’IA.

La formation numérique des modèles d’IA peut prendre des mois, voire des années. Une fois la formation terminée, les entreprises d’IA passent généralement plusieurs mois supplémentaires à tester la technologie et à la peaufiner pour une utilisation publique.

Cela pourrait signifier que le prochain modèle d’OpenAI n’arrivera pas avant neuf mois à un an ou plus.

Alors qu’OpenAI forme son nouveau modèle, son nouveau comité de sûreté et de sécurité s’efforcera de perfectionner les politiques et les processus de protection de la technologie, a indiqué la société. Le comité comprend M. Altman, ainsi que les membres du conseil d’administration d’OpenAI, Bret Taylor, Adam D’Angelo et Nicole Seligman. La société a déclaré que les nouvelles politiques pourraient être mises en place à la fin de l’été ou à l’automne.

Ce mois-ci, OpenAI a annoncé qu’Ilya Sutskever, co-fondateur et l’un des responsables des efforts de sécurité, quittait l’entreprise. Cela a suscité des inquiétudes quant au fait qu’OpenAI n’était pas suffisamment aux prises avec les dangers posés par l’IA.

Le Dr Sutskever s’était joint à trois autres membres du conseil d’administration en novembre pour retirer M. Altman d’OpenAI, affirmant qu’on ne pouvait plus faire confiance à M. Altman dans le projet de l’entreprise de créer une intelligence artificielle générale pour le bien de l’humanité. Après une campagne de lobbying menée par les alliés de M. Altman, il a été réintégré cinq jours plus tard et a depuis réaffirmé son contrôle sur l’entreprise.

Le Dr Sutskever a dirigé ce qu’OpenAI a appelé son équipe Superalignment, qui a exploré les moyens de garantir que les futurs modèles d’IA ne feraient pas de mal. Comme d’autres acteurs du domaine, il s’inquiétait de plus en plus du fait que l’IA représentait une menace pour l’humanité.

Jan Leike, qui dirigeait l’équipe Superalignment avec le Dr Sutskever, a démissionné de l’entreprise ce mois-ci, laissant l’avenir de l’équipe incertain.

OpenAI a intégré ses recherches à long terme sur la sécurité dans ses efforts plus larges pour garantir la sécurité de ses technologies. Ce travail sera dirigé par John Schulman, un autre co-fondateur, qui dirigeait auparavant l’équipe qui a créé ChatGPT. Le nouveau comité de sécurité supervisera les recherches du Dr Schulmans et fournira des conseils sur la manière dont l’entreprise abordera les risques technologiques.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite