Les plans d’IA de Google incluent désormais la cybersécurité
Alors que les gens tentent de trouver davantage d’utilisations de l’IA générative qui visent moins à créer une fausse photo et sont plutôt réellement utiles, Google prévoit d’orienter l’IA vers la cybersécurité et de rendre les rapports sur les menaces plus faciles à lire.
Dans un article de blog, Google écrit que son nouveau produit de cybersécurité, Google Threat Intelligence, rassemblera le travail de son unité de cybersécurité Mandiant et de VirusTotal sur les menaces avec le modèle Gemini AI.
Le nouveau produit utilise le grand modèle de langage Gemini 1.5 Pro, qui, selon Google, réduit le temps nécessaire à l’ingénierie inverse des attaques de logiciels malveillants. La société affirme que Gemini 1.5 Pro, sorti en février, n’a pris que 34 secondes pour analyser le code du virus WannaCry, l’attaque de ransomware de 2017 qui a entravé les hôpitaux, les entreprises et d’autres organisations à travers le monde, et identifier un kill switch. C’est impressionnant mais pas surprenant, étant donné le talent des LLM pour lire et écrire du code.
Mais une autre utilisation possible de Gemini dans le domaine des menaces consiste à résumer les rapports sur les menaces en langage naturel dans Threat Intelligence afin que les entreprises puissent évaluer l’impact des attaques potentielles sur elles ou, en d’autres termes, afin que les entreprises ne réagissent pas de manière excessive ou insuffisante aux menaces.
Google affirme que Threat Intelligence dispose également d’un vaste réseau d’informations pour surveiller les menaces potentielles avant qu’une attaque ne se produise. Il permet aux utilisateurs d’avoir une vue d’ensemble du paysage de la cybersécurité et de prioriser les éléments sur lesquels se concentrer. Mandiant met à votre disposition des experts humains qui surveillent les groupes potentiellement malveillants et des consultants qui travaillent avec les entreprises pour bloquer les attaques. La communauté VirusTotals publie également régulièrement des indicateurs de menace.
La société prévoit également de faire appel aux experts de Mandiants pour évaluer les vulnérabilités de sécurité autour des projets d’IA. Grâce au Secure AI Framework de Google, Mandiant testera les défenses des modèles d’IA et contribuera aux efforts de red teaming. Même si les modèles d’IA peuvent aider à résumer les menaces et à procéder à l’ingénierie inverse des attaques de logiciels malveillants, les modèles eux-mêmes peuvent parfois devenir la proie d’acteurs malveillants. Ces menaces incluent parfois l’empoisonnement des données, qui ajoute du mauvais code aux données récupérées par les modèles d’IA, de sorte que les modèles ne peuvent pas répondre à des invites spécifiques.
Bien entendu, Google n’est pas la seule entreprise à associer l’IA à la cybersécurité. Microsoft a lancé Copilot for Security, optimisé par GPT-4 et le modèle d’IA spécifique à la cybersécurité de Microsoft, et permet aux professionnels de la cybersécurité de poser des questions sur les menaces. Reste à savoir si l’un ou l’autre constitue réellement un bon cas d’utilisation de l’IA générative, mais c’est agréable de le voir. utilisé pour autre chose que des photos d’un pape swag.