Que signifie l’essor de l’IA générative pour l’industrie de la cybersécurité | TechTarget

L’ascension culturelle et économique de ChatGPT au cours des derniers mois a suscité un intérêt pour l’IA générative dans son ensemble, et ce moment a inclus la cybersécurité. Cependant, les experts diffèrent quant à savoir si le moment est plus imprégné de marketing ou de technologies émergentes.

ChatGPT, développé et publié par la société de recherche OpenAI, est considéré comme un grand modèle de langage (LLM), un type de modèle d’IA utilisé pour générer du texte. Les LLM sont en eux-mêmes un type d’IA générative, une branche émergente de l’intelligence artificielle dans laquelle des modèles sont utilisés pour créer du contenu tel que des images, de l’audio ou du texte grâce à des quantités massives de données de formation – par exemple, le générateur d’images d’OpenAI Dall-E .

L’immense popularité de ChatGPT a sans aucun doute été favorisée par l’investissement de plusieurs milliards de dollars annoncé par Microsoft dans OpenAI l’automne dernier, qui a conduit à l’intégration du chatbot avec le moteur de recherche Bing du géant du logiciel. Dans le sillage de cet investissement, un certain nombre de produits « alimentés par l’IA » sont entrés sur le marché au cours des six derniers mois. Par exemple, l’IA générative était le thème non officiel de la conférence RSA 2023 en avril, car de nombreux fournisseurs avaient des offres basées sur l’IA à présenter.

Plusieurs fournisseurs de cybersécurité présents à la conférence ont déclaré qu’ils utilisaient l’IA et l’apprentissage automatique depuis des années. Le concept extrêmement large d’intelligence artificielle a été intégré sous diverses formes pendant des décennies, et certains fournisseurs ont construit des ensembles de données avancés pendant des années.

Mais l’IA générative est en hausse, bien que les experts soient divisés sur ce qui a conduit à ce moment. Certains ont dit que c’était le résultat du marketing plus que des avancées technologiques réelles, et d’autres ont dit que l’IA générative comme ChatGPT conduisait à un moment décisif.

L’IA générative en cybersécurité

OpenAI a refusé une demande d’interview. À sa place, TechTarget Editorial a demandé à l’aperçu de la recherche publique de ChatGPT comment les professions de la cybersécurité utilisent ChatGPT (sous l’invite « Comment les professionnels de la cybersécurité utilisent ChatGPT ? »).

Le chatbot a répondu avec plusieurs exemples, tels que des documents de formation sur la politique de sécurité et la sensibilisation à la sécurité ; des évaluations de vulnérabilité, y compris la réalisation d’analyses, l’interprétation de rapports et la suggestion de mesures correctives ; la chasse aux menaces, qui comprend l’analyse des journaux, l’identification des modèles et la détection des indicateurs de compromission ; et l’analyse des renseignements sur les menaces, comme la simplification des rapports jusqu’aux données pertinentes et la collecte rapide d’informations à partir des avis de sécurité et des forums en ligne.

« Il est important de noter que même si ChatGPT peut fournir une aide précieuse, les professionnels de la cybersécurité doivent faire preuve de prudence et appliquer leur expertise », indique la réponse du chatbot. « Ils doivent évaluer de manière critique les informations fournies par ChatGPT et vérifier leur exactitude en utilisant des sources fiables et des pratiques de sécurité établies. »

Interrogé sur l’IA générative dans son ensemble (sous l’invite « Qu’en est-il de l’IA générative dans son ensemble (pas spécifiquement ChatGPT ? »), ChatGPT a mentionné plusieurs cas d’utilisation supplémentaires, tels que l’analyse des logiciels malveillants, la génération et le piratage de mots de passe, et le red teaming (création des e-mails de phishing réalistes et « générant un trafic d’attaque synthétique »).

Bien que de nombreuses solutions impliquant l’IA générative aient été lancées ces derniers mois, deux des plus publiques appartiennent aux géants de la technologie Google et IBM, qui ont tous deux lancé des produits lors de la conférence RSA 2023.

IBM a lancé QRadar Suite, qui associait de nouvelles versions des produits de sécurité QRadar d’IBM à une interface générative alimentée par l’IA. Google a annoncé Google Cloud Security AI Workbench. Les deux services utilisent l’IA générative pour des services tels que la chasse automatique aux menaces et les alertes de violation prioritaires, bien qu’il existe également des différences.

Les applications de l’IA générative dans la cybersécurité sont nombreuses, même si l’efficacité de la technologie n’est pas claire à ce stade précoce. Chris Steffen, vice-président de la recherche, de la sécurité et de la gestion des risques au sein du cabinet d’analystes Enterprise Management Associates, a déclaré que si une organisation non axée sur la sécurité recevait un rapport de vulnérabilité pour une faille pertinente pour l’organisation, un chatbot pourrait traduire les données techniques du rapport. pour un cadre en amont qui n’a peut-être pas les mêmes connaissances en matière de sécurité que le CISO de l’organisation.

John Olstik, analyste du groupe de stratégie d’entreprise de TechTarget, a qualifié ChatGPT d' »application d’assistance » que les analystes des menaces peuvent utiliser pour poser des questions sur des acteurs ou des tactiques, des techniques et des procédures spécifiques. Il a dit qu’il peut également écrire des règles de détection ou désosser des logiciels malveillants.

Vladislav Tushkanov, scientifique principal des données chez Kaspersky Lab, a déclaré que bien qu’il existe un certain nombre d’avantages, les limitations techniques actuelles signifient que de nombreux experts et fournisseurs sont en phase d’expérimentation avec des outils tels que ChatGPT. Au moins actuellement, « l’impact ne semble pas être élevé ».

« Les LLM souffrent encore de nombreuses limitations, telles que leur propension à halluciner et à exprimer en toute confiance des informations complètement fausses », a-t-il déclaré. « Pour cette raison, il est trop tôt pour appliquer les LLM aux tâches de cybersécurité réelles qui nécessitent précision, rapidité et fiabilité. Ils peuvent cependant être utilisés pour résumer les données et les présenter de manière plus pratique, et nous pouvons voir plus de solutions de ce type à l’avenir. »

Ketaki Borade, analyste principal de la sécurité des infrastructures au sein du cabinet d’analystes Omdia, a également déclaré que l’IA générative « trouvait sa place » pour l’automatisation des processus mais ne remplaçait pas le travail humain en gros.

« À un moment donné, la vérification par des humains est encore nécessaire, même dans les outils automatisés par l’IA », a-t-elle déclaré.

Dans une enquête auprès des professionnels des centres d’opérations de sécurité qui a eu lieu entre février et mars, IBM et la société de renseignement Morning Consult, 48% ont déclaré que l’analyse basée sur l’IA « gagnerait beaucoup de temps » dans la réponse aux menaces.

Vraie technologie contre buzz marketing

Steffen a déclaré qu’il estimait que « 50% à 60% » du battage médiatique derrière l’IA générative était basé sur le marketing, tandis que « 15% à 20% » des fournisseurs utilisaient la technologie pour faire des choses intéressantes.

« Je vois toutes ces avancées comme des avancées itératives. Je ne les vois pas comme révolutionnaires », a-t-il déclaré. « Je ne pense pas que quiconque puisse dire de manière réaliste que l’IA n’a pas été un pilier – ou du moins s’est glissée dans l’espace de sécurité – vraiment dès le départ. »

Mais malgré le penchant vers le marketing, il a déclaré que l’impulsion donnée par l’IA aide les organisations à utiliser ces outils émergents « avec plus de confiance pour pouvoir dormir la nuit ».

Je pense qu’il est important que nos responsables de la sécurité se manifestent et disent qu’il est normal de faire confiance à certains de ces trucs d’IA.

Chris SteffenVice-président de la recherche, de la sécurité et de la gestion des risques ; Associés en gestion d’entreprise

« Je pense qu’il est important que nos responsables de la sécurité disent qu’il est normal de faire confiance à certains de ces trucs d’IA », a déclaré Steffen. « Je pense qu’il est important que nous commencions à confier certaines de ces tâches à l’IA lorsque cela est approprié et, évidemment, avec un examen de la sécurité humaine. Mais je pense que c’est un pas dans la bonne direction. »

John Dwyer, responsable de la recherche chez IBM X-Force, a déclaré à TechTarget Editorial lors de la conférence RSA qu’il estimait également que le moment de l’IA reflétait une acceptation de la place de l’IA au sein de l’entreprise plus que toute percée technologique spécifique.

Olstik a déclaré qu’il y avait un « énorme élan » derrière l’apprentissage automatique et les concepts connexes, tels que l’analyse comportementale, et que cela ne ferait que continuer.

« Avec l’IA générative dans les produits, nous parlons vraiment de futurs cas d’utilisation », a déclaré Olstik. « Les professionnels de la sécurité sont sceptiques par nature, et beaucoup adopteront une approche prudente. Mais il est probable que les équipes de sécurité seront bientôt submergées par les produits et les capacités. La clé pour l’instant est la gouvernance, les politiques, l’application des politiques et la surveillance de l’IA. En d’autres termes, Les RSSI devraient travailler avec d’autres cadres pour mettre en place les garde-fous appropriés avant que le tsunami ne frappe. »

Borade a déclaré que la technologie est encore dans une phase expérimentale, mais les fournisseurs recommandés rejettent l’impulsion de « regarder et voir ». Les fournisseurs devraient travailler à la sécurité de l’IA maintenant, a-t-elle déclaré, car c’est « juste une question de qui y arrive en premier ».

La technologie semble s’emparer de l’industrie à plus d’un titre. Lors de la conférence RSA, Borade a remarqué une tendance des professionnels à discuter de la meilleure façon d’écrire une requête rapide pour obtenir un résultat optimal de ChatGPT, et qu' »il a été dit qu’il y aurait un nouveau titre de poste appelé » ingénieur rapide «  ».

Définir le moment de l’IA en matière de sécurité

Steffen a déclaré qu’il était « le verre à moitié plein » à propos du grand moment de ChatGPT et a prédit que les entreprises qui adoptent l’IA générative émergeront en tant qu’innovatrices.

« Je ne vois pas ChatGPT comme négatif », a-t-il déclaré. « Je pense que les fournisseurs qui cherchent à accroître leur utilisation des diverses technologies d’IA ne seront que des leaders à long terme. Et les entreprises utilisant ces fournisseurs qui mettent en œuvre ces technologies seront des leaders dans leurs secteurs particuliers. »

L’essor de l’IA inclut l’opportunité pour les acteurs de la menace. Les acteurs de la menace ont utilisé des contrefaçons profondes dans leurs efforts de chasse sous-marine, par exemple pour se faire passer pour une célébrité. Tushkanov a déclaré que les experts de Kaspersky ont trouvé « une variété d’offres » sur le darknet pour créer des vidéos à la demande. En ce qui concerne les chatbots et les modèles de génération de texte, il a déclaré qu’il existe un potentiel d’utilisation abusive – comme les e-mails de phishing ou la création de code malveillant – mais cela n’a pas beaucoup changé le paysage des menaces.

Chester Wisniewski, directeur technique de la recherche appliquée chez Sophos, a déclaré à TechTarget Editorial que la raison pour laquelle il y a tant de battage médiatique derrière l’IA générative est que, bien qu’il y ait une discussion importante sur la façon dont elle est utilisée par les acteurs de la menace, « il y a tellement d’avantages et d’opportunités » pour les défenseurs.

« Je suis beaucoup moins préoccupé par les trucs malveillants et beaucoup plus intéressé par ce que font les gentils », a-t-il déclaré. « Parce que cette technologie n’est pas facile à former. Ce n’est pas bon marché à faire. Ce n’est pas quelque chose avec lequel les criminels vont s’embêter parce que ce qu’ils font fonctionne déjà. »

L’IA, a-t-il dit, pourrait faire partie de cette solution.

« Nous devons faire quelque chose de mieux, car il est clair que nous ne protégeons pas assez bien les gens en tant qu’industrie, et nous essayons de trouver des moyens de permettre aux gens d’être mieux protégés », a déclaré Wisniewski. « Il y a une énorme opportunité pour nous d’utiliser ces choses pour faire cela. »

Alexander Culafi est un écrivain, journaliste et podcasteur basé à Boston.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite