Avis | La chose surprenante que les ingénieurs de l’IA vous diront si vous les laissez faire

La Commission européenne a décrit cette approche comme pérenne, ce qui s’est avéré arrogant comme on pouvait s’y attendre, car les nouveaux systèmes d’IA ont déjà jeté les définitions claires des projets de loi dans le chaos. Se concentrer sur les cas d’utilisation est bien pour les systèmes étroits conçus pour une utilisation spécifique, mais c’est une erreur de catégorie lorsqu’elle est appliquée à des systèmes généralisés. Des modèles comme GPT-4 ne font rien d’autre que prédire le mot suivant dans une séquence. Vous pouvez les utiliser pour écrire du code, passer l’examen du barreau, rédiger des contrats, créer des campagnes politiques, tracer une stratégie de marché et alimenter des compagnons d’IA ou des sexbots. En essayant de réglementer les systèmes par cas d’utilisation, la loi sur l’intelligence artificielle finit par en dire très peu sur la façon de réglementer le modèle sous-jacent qui alimente tous ces cas d’utilisation.

Les conséquences imprévues abondent. L’AIA exige, par exemple, que dans les cas à haut risque, les ensembles de données de formation, de validation et de test soient pertinents, représentatifs, exempts d’erreurs et complets. Mais ce que montrent les grands modèles de langage, c’est que les systèmes les plus puissants sont ceux formés sur les plus grands ensembles de données. Ces ensembles ne peuvent vraisemblablement pas être exempts d’erreurs, et ce que cela signifierait pour eux d’être représentatifs n’est pas clair. Il y a de solides arguments en faveur de la transparence des données, mais je ne pense pas que l’Europe ait l’intention de déployer des systèmes plus faibles et moins performants dans tous les domaines, de la notation des examens à l’infrastructure.

L’autre problème avec l’approche des cas d’utilisation est qu’elle traite l’IA comme une technologie qui, elle-même, respectera les limites. Mais son manque de respect pour les frontières est ce qui inquiète le plus les personnes travaillant sur ces systèmes. Imaginez que l’assistant personnel soit classé comme un cas d’utilisation à faible risque et qu’un hypothétique GPT-6 soit déployé pour alimenter un assistant personnel absolument fabuleux. Le système est réglé pour être extrêmement efficace pour interagir avec les êtres humains et atteindre un ensemble diversifié d’objectifs dans le monde réel. C’est génial jusqu’à ce que quelqu’un lui demande de garantir une réservation de restaurant à l’endroit le plus chaud de la ville et que le système décide que la seule façon de le faire est de provoquer une perturbation qui amène un tiers des convives de cette nuit à annuler leurs réservations.

Cela ressemble à de la science-fiction ? Désolé, mais ce genre de problème est un fait scientifique. Quiconque forme ces systèmes les a vus trouver des solutions à des problèmes que les êtres humains n’envisageraient jamais, et pour cause. OpenAI, par exemple, a formé un système pour jouer au jeu de course de bateaux CoastRunners et a intégré un renforcement positif pour obtenir un score élevé. On a supposé que cela donnerait au système une incitation à terminer la course. Mais le système a plutôt découvert une lagune isolée où il peut tourner dans un grand cercle et renverser à plusieurs reprises trois cibles, chronométrant son mouvement de manière à toujours renverser les cibles au moment où elles se repeuplent. Choisir cette stratégie signifiait prendre feu à plusieurs reprises, s’écraser sur d’autres bateaux et aller dans le mauvais sens sur la piste, mais cela signifiait également les scores les plus élevés, c’est donc ce que le modèle a fait.

Ceci est un exemple de risque d’alignement, le danger que ce que nous voulons que les systèmes fassent et ce qu’ils feront réellement puisse diverger, et peut-être le faire violemment. Limiter le risque d’alignement nécessite de limiter les systèmes eux-mêmes, pas seulement la manière dont nous permettons aux gens de les utiliser.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite