Forbes Technology Council : pourquoi les grands modèles de langage (LLM) ne sauveront pas à eux seuls la cybersécurité
Matt est directeur de la stratégie pour MixMode AI. Avec plus de 20 ans d’expérience dans le domaine de la technologie, Matt a conçu, architecturé et développé des solutions révolutionnaires qui mélangent à parts égales la technologie, le produit et l’entreprise.
Voici un extrait de mon récent Conseil technologique Forbes article, Pourquoi les grands modèles de langage (LLM) seuls ne sauveront pas la cybersécurité. Pour lire l’article complet, cliquez sur le lien ci-dessous.
D’une manière générale, les deux derniers mois ont été une balançoire sans fin pour savoir si l’IA nous mènera à l’utopie ou nous conduira à la ruine. Il y a des documentaires qui donnent à réfléchir commeDilemme de l’IA sur YouTube et des messages optimistes comme Pourquoi l’IA sauvera le monde
La star du moment est Large Language Models (aka LLMs), le modèle fondamental qui alimente ChatGPT. Il existe de nombreux exemples documentés d’exploits vraiment impressionnants construits sur cette technologie : rédaction de rapports ou sortie de code en quelques secondes. À la base, les LLM ingèrent essentiellement BEAUCOUP de texte (par exemple, pensez à Internet) en tant que corpus de données de formation et s’appuient sur la rétroaction humaine dans un type de formation supervisée appelée apprentissage par renforcement.
Les mauvais acteurs de la cybersécurité activés par cette technologie ont été notés assez largement. Pouvoir usurper des e-mails et des appels téléphoniques de membres de la famille ou de collègues de travail augmentera l’efficacité des campagnes de phishing. La NSA a récemment noté la capacité des LLM à réécrire les logiciels malveillants existants connus pour contourner les signatures historiquement utilisées pour leur détection. Encore plus dangereuse est la capacité avancée à découvrir de nouveaux exploits zero-day dans les systèmes et à développer de nouvelles attaques inédites.
Ce récit a rencontré une mentalité de type Lets Fight Fire with Fire sur le marché de la cybersécurité. Une sorte de moment Flex Tape consistant à gifler ChatGPT sur les outils hérités, puis à enfiler un surnom d’IA générative. En d’autres termes, beaucoup vendent que les LLM sauveront la situation en détectant ces attaques de pirates en constante progression.
Pour être juste, il est possible que les LLM puissent aider à abaisser la barre de l’utilisation de certains outils de cybersécurité. Si cela est fait en toute sécurité, fournir une interface en langage naturel en plus d’outils qui nécessitent normalement beaucoup de formation pour fonctionner n’est pas une mauvaise idée. Cette tendance générale pourrait faire de l’anglais le langage de programmation de facto pour de nombreux outils dans un avenir pas trop lointain.
Continuez à lire cet article pour en savoir plus sur :
- Les promesses excessives et les lacunes des LLM
- Recadrer les LLM et la voie à suivre
Continuer la lecture
Autres articles MixMode que vous pourriez aimer
eBook : Les inefficacités des outils hérités Pourquoi les SIEM seuls sont inefficaces pour détecter les attaques avancées
Libérer la puissance de l’IA auto-supervisée : aperçu du rapport de recherche 451 sur la détection et la réponse dynamiques aux menaces MixModes
Le rapport annuel sur les incidents de violation de données (DBIR) de Verizons met en lumière les tendances des ransomwares et les menaces internes
L’alignement de la surface d’attaque d’une organisation sur la surface de détection est la clé de la défense contre l’adversaire à l’ère du cloud d’aujourd’hui
Détection des menaces dans AWS avec MixMode AI
Les 5 principaux points à retenir du plan stratégique CISA 2023-2025 que la communauté de la cybersécurité devrait connaître