Columbia organise une séance d’information sur la cybersécurité pour les décideurs de Washington
Columbia a organisé ce mois-ci une réunion d’information à l’intention des décideurs politiques de Washington pour les informer des promesses et des menaces posées par les technologies d’intelligence artificielle en évolution rapide qui ont été présentées au public au cours de la dernière année.
Trois experts de Columbia ont dirigé le briefing : le professeur Salvatore Stolfo, à qui l’on attribue la création du domaine de l’apprentissage automatique appliqué aux systèmes de détection d’intrusion au milieu des années 1990 ; le professeur Simha Sethumadhavan, spécialiste de la chaîne d’approvisionnement en microélectronique et de la cybersécurité ; et le professeur Junfeng Yang, dont les recherches portent sur la fabrication de systèmes fiables et sécurisés, y compris l’IA. Jeannette Wing, vice-présidente exécutive de Columbia pour la recherche, a animé la discussion.
La séance d’information s’est concentrée sur les menaces pesant sur la chaîne d’approvisionnement du matériel microélectronique ; les menaces au sein de grands modèles de langage qui sont au cœur de nouvelles applications telles que ChatGPT ; et les menaces dans les ensembles de données sous-jacents aux grands modèles de langage et aux algorithmes d’IA.
Voici quelques faits saillants de la discussion. Les citations ont été légèrement modifiées pour plus de clarté.
Simha Sethumadhavan
La microélectronique n’a pas besoin d’être présentée car elle est partout, des jouets bon marché aux systèmes de sécurité nationale, et est en grande partie responsable de presque toutes les avancées sociétales au cours des cinq à sept dernières décennies. L’assurance signifie une capacité à fournir des preuves de haute qualité que les puces n’ont pas été falsifiées de quelque manière que ce soit, ce qui est important car la falsification aura des conséquences catastrophiques très graves et généralisées.
Le Congrès pourrait exiger que tous les fournisseurs de matériel réservent une partie du budget à la sécurité. Cela éliminerait le désavantage du premier arrivé qui existe aujourd’hui, car lorsque les entreprises veulent mettre en œuvre la sécurité, cela a un certain coût, et personne ne veut que ces pièces coûtent plus cher, surtout lorsque le client ne réalise pas ce qu’il obtient en retour.
S’il y a une chose que vous voulez retenir de cette conférence, c’est qu’il est urgent d’activer l’assurance de la conception pour la microélectronique de base.
Salvatore Stolfo
La question fondamentale est de savoir comment quelqu’un peut-il vérifier la véracité d’une source de données comme étant consommée par ces modèles plus grands ? Il n’y a tout simplement pas de vérificateurs de faits qui peuvent fonctionner à l’échelle à laquelle ces systèmes fonctionnent.
Ce que nous pouvons faire, c’est tirer parti de notre infrastructure juridique et réglementaire actuelle, perfectionnée depuis de nombreuses décennies dans les domaines financier et médical. Ces secteurs peuvent nous apprendre comment nous pouvons nous assurer que les informations publiées par ces sociétés d’IA sont véridiques.
Personne n’y arrivera du premier coup. Nous devons donc revoir tout ce qui est décidé par le Congrès sur la réglementation de l’IA, apprendre des erreurs, apprendre de ce qui a bien fonctionné, et nous espérons que les systèmes d’IA apprendront de ces erreurs et s’amélioreront. Il doit y avoir une révision des règlements sur une sorte de calendrier qui a du sens.
Junfeng Yang
Il existe de nombreux risques associés aux grands modèles de langage. Le premier est la désinformation : les sorties du modèle peuvent être biaisées ou incorrectes. Le second est la désinformation : ces modèles peuvent être utilisés par les attaquants à des fins malveillantes, comme lancer une campagne de désinformation. Enfin, ces modèles sont entraînés via un processus très complexe et leur propre chaîne d’approvisionnement peut être vulnérable en ce qui concerne la provenance des informations.
Nous ne devrions pas suspendre la recherche sur l’IA ou les grands modèles de langage pendant six mois pour deux raisons. La première raison est que je crois que l’impact net de ces modèles sur notre société sera un énorme avantage au lieu d’être négatif. Ils peuvent être utilisés pour avoir un impact beaucoup plus positif sur de très nombreuses choses sur lesquelles repose notre société. La deuxième raison est que si vous faites une pause aux États-Unis, d’autres pays vont continuer à faire leurs recherches.
Regardez une vidéo complète de l’événement ici: