Analystes en cybersécurité utilisant ChatGPT pour l’analyse de code malveillant et la prévision des menaces | eSecurityPlanet
ChatGPT a sonné l’alarme parmi les chercheurs en cybersécurité pour sa capacité déconcertante à tout composer, des logiciels malveillants sophistiqués aux leurres de phishing, mais il est important de garder à l’esprit que l’outil peut également aider à soutenir les défenses de la cybersécurité.
Shiran Grinberg, directeur de la recherche et des opérations cyber chez Cynet, a déclaré Planète eSecurity que trop d’entreprises sont dissuadées par ChatGPT, plutôt que d’encourager les employés à tirer parti de ses fonctionnalités. « Après tout, je doute que vous trouviez aujourd’hui un responsable qui n’encourage pas ses employés à utiliser Google lorsqu’ils recherchent des informations, à moins que vous ne soyez citoyen chinois, russe, coréen ou iranien », a-t-il déclaré.
A lire aussi :
Les bonnes utilisations de sécurité de ChatGPT
Et les avantages de sécurité de ChatGPT, a déclaré Grinberg, sont importants. « Supposons que vous avez une équipe d’analystes et que vous les encouragez à utiliser ChatGPT afin de tirer des conclusions et de rechercher toutes sortes d’informations », a-t-il déclaré. « Vous pouvez en fait mettre un morceau de code dans ChatGPT et lui demander d’identifier la partie malveillante qu’il contient, donc en effet, cela peut beaucoup aider. »
Les analystes, les intervenants et les enquêteurs, a déclaré Grinberg, peuvent utiliser ChatGPT pour assembler un rapport détaillé de réponse aux incidents, aligné sur la méthodologie SANS, en quelques minutes. Ils peuvent ensuite remplir le rapport avec une analyse du code malveillant, des scripts et des différentes fonctions malveillantes, « le tout réalisé avec l’aide de ChatGPT », a-t-il déclaré.
Grinberg a déclaré que Cynet avait déjà commencé à tirer parti de ChatGPT pour pérenniser ses défenses. « Nous sommes capables de prendre un modèle d’apprentissage automatique et de le transformer en un mécanisme d’IA qui apprend essentiellement de nombreux types de fichiers légitimes par rapport à de nombreux fichiers malveillants », a-t-il déclaré. « En utilisant d’énormes quantités de données, nous pouvons déterminer quels futurs fichiers seraient malveillants ou légitimes. »
Cependant, un chercheur en sécurité – Chris Anley, scientifique en chef du groupe NCC – prévient que l’utilisation de ChatGPT pour l’analyse du code de sécurité peut entraîner des inexactitudes et nécessite un examen par des experts.
Comme Anley l’a noté dans un exemple d’analyse de code, « cette sortie est étonnante à première vue, mais présente certains problèmes qui nécessitent une compréhension humaine et une révision minutieuse pour que la sortie soit fiable ».
Utilisations malveillantes
D’autre part, l’outil peut aider les utilisateurs malveillants à générer des menaces qui auraient auparavant été au-delà de leurs capacités. « La principale menace réside dans le fait que ChatGPT rend la vie plus facile et plus simple pour les acteurs de la menace en termes de création d’une attaque avec peu de connaissances préalables sur les capacités techniques », a déclaré Grinberg.
Il est relativement facile, a-t-il dit, pour les acteurs de la menace d’exploiter ChatGPT pour développer du code malveillant. Même si ChatGPT vous avertira si vous essayez de faire quelque chose d’illégal, a déclaré Grinberg, « vous pouvez le tromper en jouant à des scénarios et il vous donnera un code qui, avec quelques ajustements, peut être malveillant. »
Un groupe sur Reddit, par exemple, a travaillé sur des jailbreaks qui contournent les contrôles ChatGPT.
Dans une certaine mesure, apporter des techniques de piratage avancées aux moins techniques n’est pas un problème nouveau dans tous les domaines, l’âge moyen des attaquants diminue à mesure qu’ils constatent que les barrières à l’entrée tombent. « Il existe toutes sortes de services disponibles aujourd’hui, comme les logiciels malveillants en tant que service, les ransomwares en tant que service, l’accès initial en tant que service et maintenant ChatGPT, qui permet au pirate informatique expert de tout un être soudainement capable d’écrire du code malveillant et de mener des attaques », a déclaré Grinberg.
Outils de sécurité ChatGPT à venir ?
Il convient également de noter, a déclaré Grinberg, que de nouveaux outils sont de plus en plus disponibles pour aider à déterminer si le contenu a été généré par des exemples d’IA, notamment le classificateur de texte OpenAI AI, le détecteur d’IA de contenu à l’échelle et le détecteur de sortie GPT-2. « Mon estimation est que nous verrons des outils et des solutions supplémentaires visant à détecter le contenu malveillant conçu par des modèles d’IA », a-t-il déclaré.
Grinberg a déclaré que la leçon la plus large est simple : n’ignorez pas les menaces. « Travaillez à responsabiliser vos employés, encouragez-les à interagir avec cette nouvelle technologie, associez-la à une formation de sensibilisation à la cybersécurité », a-t-il déclaré. « Ce sera amusant, engageant et mémorable. »
Voir les principaux outils de détection et de réponse aux points de terminaison (EDR)