Nous devons affiner et sécuriser l’IA, pas tourner le dos à la technologie
Comme l’explique avec éloquence le nouveau livre de Baldur Bjarnason, le concept d' »empoisonnement » des modèles d’IA met en lumière les défis croissants dans le domaine de l’éthique et de la sécurité de l’IA. Cette conversation complexe est devenue à la fois intimidante et intrigante, remuant les eaux troubles de l’évolution technologique et ses énigmes éthiques ultérieures.
Dans un sens plus large, la perspective que ChatGPT ou toute IA soit compromise ou « cassé » par quelqu’un peut ressembler à l’intrigue d’un cyber thriller. Cependant, il est essentiel de traiter cela non pas comme un hypothétique Armageddon, mais comme un puissant appel à l’action pour affiner et sécuriser une technologie en évolution.
J’aimerais penser à l’appel du mardi d’OpenAI et d’autres selon lesquels l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale comme un signe que l’industrie cherche à travailler avec toutes les parties prenantes pour faire de la promesse de l’IA une réalité et qu’ils reconnaissent que nous devons regardez l’IA de la même manière que nous le faisons pour les guerres nucléaires et les pandémies.
Le cœur de ces conversations tourne autour d’une compréhension de base : les modèles d’IA, comme tout logiciel, sont susceptibles d’être exploités. La situation actuelle rappelle les débuts d’Internet, lorsque les cyber-vulnérabilités étaient endémiques et que les stratégies de sécurité n’en étaient qu’à leurs balbutiements. Au fil des ans, la communauté technologique a construit des cadres de cybersécurité robustes pour lutter contre les menaces contre les logiciels traditionnels, et il n’y a aucune raison pour que nous ne puissions pas accomplir la même chose pour l’IA.
La cybersécurité et l’IA, bien que distinctes, partagent de nombreux parallèles. Les deux domaines sont confrontés à des défis similaires, des acteurs malveillants visant à exploiter les vulnérabilités à la nécessité de maintenir la confidentialité et l’intégrité des données. Ils nécessitent tous deux une approche multiforme de la sécurité, exigeant à la fois des solutions technologiques et des solutions éthiques et législatives.
L’inclinaison d’OpenAI envers le secret reflète des tendances similaires aux débuts de la cybersécurité. Dans le passé, les entreprises dissimulaient souvent leurs pratiques de sécurité, leurs vulnérabilités et leurs violations dans le secret, craignant un désavantage concurrentiel et une atteinte à leur réputation. Cependant, cette stratégie s’est souvent avérée contre-productive. La cybersécurité repose sur la transparence, le partage de renseignements sur les menaces et la collaboration à l’échelle de la communauté. De même, OpenAI et d’autres institutions d’IA doivent adopter l’ouverture et collaborer de manière proactive avec la communauté de recherche au sens large.
Ouvrir les modèles d’IA à la communauté des chercheurs en sécurité revient à inviter des pirates éthiques à tester le courage des cyberdéfenses. De nombreuses organisations, même les plus fortifiées, ont largement bénéficié des découvertes des hackers « chapeau blanc ». Plus d’yeux, de perspectives et de solutions potentielles, cette sagesse collective peut être un puissant catalyseur pour une IA plus sûre.
L’analogie de Bjarnason comparant les modèles d’IA au « marché des citrons » met en évidence un aspect sous-estimé de la transparence de l’industrie de l’IA dans les processus de formation et les sources de données. Tout comme nous attendons de la transparence des constructeurs automobiles concernant leurs composants et leurs lignes de production, nous devrions exiger une ouverture similaire de la part des développeurs d’IA. Nous avons besoin de normes similaires à l’étiquetage des aliments, où les modèles d’IA sont accompagnés de listes d’ingrédients, d’une documentation des sources de données, de méthodologies de formation et des paramètres qui guident leur apprentissage.
Cependant, il est crucial de se rappeler que, contrairement aux voitures d’occasion, l’IA n’est pas un produit statique. C’est une entité qui évolue et apprend avec le temps. À l’instar de l’évolution du paysage des menaces en matière de cybersécurité, où de nouvelles vulnérabilités et de nouveaux vecteurs d’attaque apparaissent en permanence, les défauts potentiels de l’IA ne sont pas statiques. Ils peuvent émerger ou évoluer en fonction des données avec lesquelles ils interagissent et des environnements dans lesquels ils naviguent.
La menace d’empoisonnement des modèles d’IA est une réalité, tout comme les logiciels ou systèmes traditionnels infectés par des logiciels malveillants ou ciblés par des ransomwares. Nous devons nous attaquer de front à ces problèmes avec des contre-mesures robustes, telles que des pratiques de nettoyage des données de formation raffinées, des procédures de réglage fin rigoureuses et une transparence accrue dans les opérations d’IA. Alors que la cybersécurité évolue pour contrecarrer les nouvelles menaces, notre approche de la sécurité de l’IA doit en faire autant.
Essentiellement, les modèles d’IA ne sont que des outils. Ils sont aussi bénéfiques ou nocifs que les humains le permettent. Nous, créateurs et utilisateurs de l’IA, devons utiliser ces outils de manière responsable et éthique.
Les organismes de réglementation ont également un rôle important à jouer ici. Étant donné que des réglementations robustes en matière de cybersécurité ont joué un rôle déterminant dans la création d’environnements numériques plus sûrs, des réglementations intelligentes et efficaces en matière d’IA sont cruciales. Ils ne doivent pas étouffer l’innovation, mais favoriser un climat de transparence, d’équité et de sécurité. L’Union européenne et les États-Unis devraient être le fer de lance d’un effort coordonné pour créer un cadre de gouvernance harmonisé de l’IA semblable à leurs progrès en matière de coopération en matière de cybersécurité.
C’est une opinion extrême que nous devrions rejeter les produits d’OpenAI comme intrinsèquement défectueux et rechercher des alternatives. Comme toute technologie à ses débuts, l’IA est aux prises avec sa part de défis. Cependant, la solution n’est pas de rejeter complètement l’IA. Au lieu de cela, nous devrions canaliser nos efforts vers l’amélioration de la transparence, l’amélioration des pratiques et la conception de systèmes d’IA éthiquement sains.
Le potentiel de l’IA l’emporte largement sur ses problèmes de démarrage. Nous devons l’aborder avec un optimisme critique, pas de peur. Ce moment crucial dans l’industrie de l’IA devrait rassembler toutes les parties prenantes des sociétés d’IA, des développeurs, des utilisateurs finaux et des régulateurs – pour construire en collaboration un écosystème d’IA plus sûr, plus transparent et responsable. Comme nous l’avons vu avec la cybersécurité, c’est un voyage ardu, mais la destination d’un monde rendu meilleur grâce à l’IA en vaut la peine.
Ani Chaudhuri, PDG, Dasera