Microsoft présente de nouveaux outils d’IA pour lutter contre les menaces croissantes en matière de cybersécurité
Le géant informatique Microsoft est en plein essor pour essayer d’ajouter la technologie de l’IA à tous ses produits.
La société a été vue aller de l’avant avec ce plan aujourd’hui avec le lancement d’un nouvel outil de sécurité appelé Security Copilot. Microsoft affirme que l’objectif est de fournir plus de données concernant les renseignements sur les menaces pour lutter contre le nombre croissant d’attaques de cybersécurité.
La société a également été considérée comme présentant le nouvel outil comme un moyen fiable de corréler les informations sur de telles attaques tout en plaçant les incidents de sécurité comme l’une de leurs principales priorités à ce stade.
À la lumière de tout cela, les experts ont rapidement mentionné combien d’outils le faisaient déjà en ce moment. Alors, quel est le but d’en ajouter plus?
Microsoft a soutenu et affirmé que le Security Copilot est conçu pour se combiner avec le portefeuille de sécurité déjà vu dans ses programmes logiciels. Mais cette fois-ci, il est conçu pour s’améliorer en ajoutant les avantages des modèles d’IA générative, y compris la technologie GPT4 -4 lancée très récemment.
Avancer dans ce domaine signifie voir à la fois les individus et la technologie prendre de l’avance sur le jeu à une vitesse et à une échelle plus grandes avec lesquelles l’IA révolutionne le monde. Et le nouveau Security Copilot est conçu pour créer un avenir où tous les défenseurs sont habilités par les outils et la technologie utilisés pour transformer le monde en un endroit plus sûr.
À l’heure actuelle, le projet est très nouveau et Microsoft reste assez silencieux sur la façon dont l’ensemble de la technologie GPT-4 bénéficiera et fonctionnera dans cet outil. Mais ce dont il parle, c’est de la façon dont il est très bien formé et personnalisé, affichant le meilleur ensemble de compétences en matière de sécurité pour se débarrasser des principales cybermenaces.
De plus, Microsoft indique très clairement dès le départ qu’il n’a utilisé aucun type de données client à des fins de formation. Et c’est important car cela a été une grande source de critiques de la part d’experts dans le passé concernant les précédents modèles d’IA basés sur le langage.
Cet outil personnalisé est programmé pour saisir ce que d’autres pourraient finir par manquer. De même, il répond à un grand nombre de requêtes qui conseillent le plan d’action ultime tout en produisant un résumé des événements en cours et d’autres processus en cours de route.
Bien que la plupart des modèles de production de texte aient des tendances mensongères, il n’est pas clair dans quelle mesure cela pourrait affecter la production. Comme toujours, Microsoft essaie de se sauver en affirmant que le copilote de sécurité ne semble pas toujours faire les choses correctement.
Lire ensuite : Sam Altman double ses craintes sur l’IA malgré les critiques