Les audiences du Congrès se concentrent sur l’IA et les défis de l’apprentissage automatique dans la cybersécurité
Des audiences du Congrès sur l’intelligence artificielle et l’apprentissage automatique dans le cyberespace se sont déroulées discrètement au sein du sous-comité des comités des forces armées de l’USSenate sur le cyber début mai 2022. Le comité a discuté du sujet avec des représentants de Google, Microsoft et du Center for Security and Emerging Technology de l’Université de Georgetown. Alors que le travail a commencé sérieusement au sein de l’industrie et du gouvernement, il est clair qu’il reste encore beaucoup à faire.
Le président de l’audience, le sénateur Joe Manchin (D-WV), a expliqué l’importance de l’IA et de l’apprentissage automatique pour les forces armées des États-Unis. De plus, le comité a souligné le manque de personnel techniquement formé en cybersécurité à travers le pays, tant au gouvernement qu’au sein de l’industrie. Cette perspective est conforme au rapport de la Commission Solarium, qui a ensuite été publié début juin 2022.
Google : 3 raisons pour lesquelles l’apprentissage automatique et l’IA sont importants pour la cybersécurité
Dans le cadre du ministère de la Défense, le Dr Andrew Moore, directeur de Google Cloud Artificial Intelligence, a souligné l’importance d’utiliser l’IA de trois manières. Le premier est l’utilisation de l’IA pour se défendre contre les attaques de l’adversaire, les deuxième et troisième sont comment organiser les données et les personnes. Il a expliqué comment l’IA est capable de traiter des millions d’attaques chaque seconde en veillant à ce que ces attaques se produisent, ce qui dépasse de loin la capacité d’un humain à traiter.
En ce qui concerne le côté humain de l’équation, Moore a souligné comment, avec les attaques émergentes, les gens ingénieux proposant de nouvelles méthodes et les IA proposant de nouvelles méthodes, vous devez donc apprendre de nouveaux modèles ou détecter de tout nouveaux types d’attaques en temps réel. temps. Il est passé à la question des menaces internes et a souligné l’importance de l’IA dans la mise en œuvre de la confiance zéro, où, avec l’IA, les schémas humains sont discernables. Moore a précisé que l’IA sans données est assez sans valeur. Il a souligné à quel point les données cloisonnées étaient la némésis de l’IA et qu’un échange complet d’ensembles de données disparates était nécessaire pour que l’image plus complète évolue.
Microsoft : la pénurie de personnel en cybersécurité est préoccupante
Eric Horvitz, directeur scientifique de Microsoft, a partagé des informations du rapport sur la défense numérique d’octobre 2021 de l’entreprise et a souligné ses efforts pour s’engager conformément au décret exécutif du président Bidens sur l’amélioration de la cybersécurité des Nations, EO 14028. Dans sa déclaration liminaire, il a noté, La valeur de exploiter l’IA dans les applications de cybersécurité devient de plus en plus clair. Parmi de nombreuses fonctionnalités, les technologies d’IA peuvent fournir une interprétation automatisée des signaux générés lors d’attaques, une hiérarchisation efficace des incidents de menace et des réponses adaptatives pour faire face à la vitesse et à l’ampleur des actions contradictoires. Les méthodes sont très prometteuses pour analyser et corréler rapidement des modèles sur des milliards de points de données afin de détecter une grande variété de cybermenaces de l’ordre de quelques secondes.
Horvitz a souligné que la pénurie de personnel de cybersécurité était gênante, citant l’étude 2021 sur les effectifs de cybersécurité, plaçant le nombre mondial à 2,72 millions de postes de cybersécurité qui ne sont pas pourvus. Même lorsque les équipes opérationnelles fonctionnent 24 heures sur 24, 7 jours sur 7, il y a beaucoup plus d’alertes à gérer que de personnel, ce qui entraîne une menace très réelle de débordement des équipes. L’IA, selon Horvitz, permet aux défenseurs d’adapter efficacement leurs capacités de protection, d’orchestrer et d’automatiser les actions de réponse chronophages, répétitives et compliquées.
L’utilité de l’IA du côté de la sécurité de l’équation peut, selon Horvitz, être divisée en quatre groupes : prévention, détection, enquête et correction, et renseignement sur les menaces. Alors que les cyberattaques alimentées par l’IA sont également une réalité. Avec des adversaires criminels/États-nations utilisant une automatisation de base, des attaques basées sur l’authentification, une ingénierie sociale alimentée par l’IA. Sa discussion sur l’IA contradictoire a permis de souligner la nécessité de continuer à investir dans la R&D qui élève le niveau de robustesse des systèmes. Il a poursuivi, en insistant, sur l’importance des exercices de l’équipe rouge.
Centre pour la sécurité et les technologies émergentes : focus sur la fiabilité du système d’IA
Le CSET de Georgetown était représenté par le Dr Andrew Lohn, chercheur principal du projet CyberAI au CSET. Il a abordé trois domaines d’importance pour l’IA :
- L’IA promet d’améliorer les cyberdéfense.
- L’IA peut améliorer les cyberopérations offensives.
- L’IA elle-même est vulnérable.
Dans sa déclaration d’ouverture, Lohn a évoqué la fiabilité des systèmes avec, Les États-Unis font partie de ceux qui déploient des systèmes autonomes, mais nos adversaires n’attendent peut-être pas pour les renverser. Il existe de nombreuses possibilités d’interférence tout au long du processus de conception. L’IA peut être très coûteuse à former, donc plutôt que de partir de zéro, un système est souvent adapté à partir de systèmes existants qui peuvent ou non être dignes de confiance. Et les données utilisées pour entraîner ou adapter les systèmes peuvent également être fiables ou non.
Conseils à l’industrie/gouvernement
Le conseil de Horvitz est de redoubler d’attention et d’investir sur les menaces et les opportunités à la convergence de l’IA et de la cybersécurité. Des investissements importants dans la formation de la main-d’œuvre, la surveillance, l’ingénierie et la R&D de base seront nécessaires pour comprendre, développer et opérationnaliser les défenses face à l’étendue des risques auxquels nous pouvons nous attendre avec les attaques alimentées par l’IA.
Moore, pour sa part, a souligné la nécessité de poursuivre les investissements dans la formation, la technologie et la gestion. Il a expliqué que nous avons tous un rôle à jouer pour prévenir et détecter les menaces en ligne. Être transparent avec les gouvernements, les clients et les entités gouvernementales en ce qui concerne les cyberattaques est l’un de nos principes clés et est d’une importance cruciale pour répondre aux incidents à grande échelle.
Lohn a noté comment, les cyberopérations sont encore à forte intensité humaine à la fois en attaque et en défense. Et il y a peu de cas ouvertement signalés en dehors d’un environnement de laboratoire où les algorithmes d’IA ont été attaqués directement. Il a poursuivi en disant que le potentiel d’attaques directes sur les systèmes d’IA n’est pas un secret et que la réalité est peut-être à l’horizon.
En résumé, les CSO/CISO/CIO s’ils ne sont pas déjà engagés dans des discussions sur la cybersécurité de l’IA au niveau de la compréhension, ils doivent alors faire un ajustement et s’engager. Pour ceux qui comprennent et sont engagés, les conseils et les points saillants fournis lors de cette audience ont indiqué où vous devez vous assurer que vos connaissances/capacités sont alignées et que le pipeline sur les nouvelles techniques, expériences et surtout les compromis est grand ouvert pour recevoir mode.
Copyright © 2022 IDG Communications, Inc.