Google apporte l’IA générative à la cybersécurité

Crédits image : 400tmax / Getty Images

Une nouvelle tendance émerge dans l’espace de l’IA générative L’IA générative pour la cybersécurité et Google fait partie de ceux qui cherchent à entrer au rez-de-chaussée.

Lors de la conférence RSA 2023 aujourd’hui, Google a annoncé Cloud Security AI Workbench, une suite de cybersécurité alimentée par un modèle de langage d’IA de sécurité spécialisé appelé Sec-PaLM. Dérivé du modèle PaLM de Google, Sec-PaLM est adapté aux cas d’utilisation de la sécurité, selon Google, incorporant des renseignements de sécurité tels que la recherche sur les vulnérabilités logicielles, les logiciels malveillants, les indicateurs de menace et les profils comportementaux des acteurs de la menace.

Cloud Security AI Workbench couvre une gamme de nouveaux outils basés sur l’IA, comme Mandiants Threat Intelligence AI, qui tirera parti de Sec-PaLM pour trouver, résumer et agir sur les menaces de sécurité. (Rappelons que Google a acheté Mandiant en 2022 pour 5,4 milliards de dollars.) VirusTotal, une autre propriété de Google, utilisera Sec-PaLM pour aider les abonnés à analyser et expliquer le comportement des scripts malveillants.

Ailleurs, Sec-PaLM aidera les clients de Chronicle, le service de cybersécurité cloud de Google, à rechercher des événements de sécurité et à interagir de manière conservatrice avec les résultats. Les utilisateurs de Googles Security Command Center AI, quant à eux, obtiendront des explications lisibles par l’homme sur l’exposition aux attaques grâce à Sec-PaLM, y compris les actifs concernés, les mesures d’atténuation recommandées et les résumés des risques pour les résultats en matière de sécurité, de conformité et de confidentialité.

Alors que l’IA générative a récemment captivé l’imagination, Sec-PaLM est basé sur des années de recherche fondamentale sur l’IA par Google et DeepMind, et sur l’expertise approfondie de nos équipes de sécurité, a écrit Google dans un article de blog ce matin. Nous venons tout juste de commencer à réaliser la puissance de l’application de l’IA générative à la sécurité, et nous sommes impatients de continuer à tirer parti de cette expertise pour nos clients et de faire progresser la communauté de la sécurité.

Ce sont des ambitions assez audacieuses, d’autant plus que VirusTotal Code Insight, le premier outil de Cloud Security AI Workbench, n’est disponible que dans un aperçu limité pour le moment. (Google indique qu’il prévoit de déployer le reste des offres auprès de testeurs de confiance dans les mois à venir.) Il n’est franchement pas clair dans quelle mesure Sec-PaLM fonctionne ou ne fonctionne pas dans la pratique. Bien sûr, les mesures d’atténuation recommandées et les résumés des risques semblent utiles, mais les suggestions sont-elles bien meilleures ou plus précises parce qu’un modèle d’IA les a produites ?

Après tout, les modèles de langage d’IA, aussi pointus soient-ils, commettent des erreurs. Et ils sont sensibles aux attaques telles que l’injection rapide, ce qui peut les amener à se comporter d’une manière que leurs créateurs n’avaient pas voulu.

Cela n’arrête pas les géants de la technologie, bien sûr. En mars, Microsoft a lancé Security Copilot, un nouvel outil qui vise à résumer et à donner un sens aux renseignements sur les menaces à l’aide de modèles d’IA génératifs d’OpenAI, y compris GPT-4. Dans les documents de presse, Microsoft, comme Google, a affirmé que l’IA générative équiperait mieux les professionnels de la sécurité pour lutter contre les nouvelles menaces.

Les jurys sont très attentifs à cela. En vérité, l’IA générative pour la cybersécurité pourrait s’avérer être plus à la mode que tout ce qui manque d’études sur son efficacité. Eh bien, voyez les résultats assez tôt avec un peu de chance, mais en attendant, prenez les affirmations de Google et de Microsoft avec un grain de sel sain.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite