Microsoft lâche l’IA générative sur la cybersécurité

Crédits image : Jean-Luc Ichard / Getty Images

Dans le cadre de sa quête continue pour injecter l’IA générative dans tous ses produits, Microsoft a présenté aujourd’hui Security Copilot, un nouvel outil qui vise à résumer et à donner un sens aux renseignements sur les menaces.

Dans une annonce éclairant les détails, Microsoft a présenté Security Copilot comme un moyen de corréler les données sur les attaques tout en hiérarchisant les incidents de sécurité. D’innombrables outils le font déjà. Mais Microsoft affirme que Security Copilot, qui s’intègre à son portefeuille de produits de sécurité existant, est amélioré par les modèles d’IA génératifs d’OpenAI, en particulier le GPT-4 générateur de texte récemment lancé.

Faire progresser l’état de la sécurité nécessite à la fois l’ingéniosité humaine des personnes et de la technologie, associée aux outils les plus avancés qui aident à appliquer l’expertise humaine à la vitesse et à l’échelle, a déclaré le vice-président exécutif de Microsoft Security, Charlie Bell, dans un communiqué. Avec Security Copilot, nous construisons un avenir où chaque défenseur dispose des outils et des technologies nécessaires pour rendre le monde plus sûr.

Curieusement, Microsoft n’a pas divulgué exactement comment Security Copilot intègre GPT-4. Au lieu de cela, il a mis en évidence un modèle personnalisé entraîné, peut-être basé sur GPT-4, alimentant Security Copilot, qui intègre un ensemble croissant de compétences spécifiques à la sécurité et déploie des compétences et des requêtes liées à la cybersécurité.

Microsoft a souligné que le modèle n’est pas formé sur les données des clients, répondant à une critique courante des services basés sur un modèle de langage.

Ce modèle personnalisé aide à détecter ce que d’autres approches pourraient manquer, selon Microsoft, en répondant aux questions liées à la sécurité, en conseillant sur le meilleur plan d’action et en résumant les événements et les processus. Mais étant donné les tendances mensongères des modèles générateurs de texte, il est difficile de savoir à quel point un tel modèle pourrait être efficace en production.

Microsoft lui-même admet que le modèle personnalisé de copilote de sécurité ne fonctionne pas toujours correctement. Le contenu généré par l’IA peut contenir des erreurs, écrit la société. Au fur et à mesure que nous continuons à apprendre de ces interactions, nous ajustons ses réponses pour créer des réponses plus cohérentes, pertinentes et utiles.

Espérons que ces erreurs ne finissent pas par aggraver un mauvais problème de sécurité.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite