Survie de la cybersécurité : se cacher de l’IA adverse
Si vous lisez des articles sur la manière dont les pirates peuvent utiliser l’intelligence artificielle (IA), vous avez probablement remarqué qu’ils se répartissent en deux catégories : l’amélioration des capacités de tromperie et l’automatisation du codage malveillant.
Le premier cas soutient que l’IA générative utilisant de grands modèles de langage (LLM) peut créer des leurres de phishing et de smishing plus crédibles (inscription requise). Étant donné que 90 % des cyberattaques réussies commencent par du phishing, l’IA améliorant les leurres trompeurs est une source de préoccupation majeure. Imaginez les communications convaincantes que le nouveau modèle GPT-4, qui a embauché des personnes pour résoudre les défis Captcha, pourrait écrire.
Le deuxième sujet, l’IA qui écrit des logiciels malveillants (ce qu’elle a fait), me semble moins dérangeant. Dans ce cas, les experts affirment que les LLM peuvent écrire des logiciels malveillants polymorphes ou faciliter la création de code malveillant par des adversaires moins qualifiés. Cependant, nous vivons dans un monde où plus de 450 000 nouvelles variantes de logiciels malveillants et d’applications potentiellement indésirables (PUA) sont enregistrées chaque jour. Il est difficile de voir comment les utilisateurs peu qualifiés qui s’ajouteraient à ce nombre modifieraient considérablement le paysage des menaces. Créer simplement plus de logiciels malveillants est une tâche facilement automatisée. L’IA doit créer de meilleurs logiciels malveillants pour constituer une plus grande menace.
Potentiel de menace d’IA adverse
Je pense que le potentiel de menace de l’IA adverse est bien plus grand que le double coup dur d’aujourd’hui meilleur hameçonnage et plus de logiciels malveillants. Prenez un moment pour mettre votre chapeau d’acteur menaçant et imaginez ce que l’IA malveillante pourrait bientôt accomplir. Quels outils les adversaires utilisent-ils généralement, et une IA bien entraînée peut-elle améliorer leur efficacité ?
Former l’IA au piratage
Considérez le potentiel inexploité de formation à l’IA des outils d’analyse des vulnérabilités tels qu’Acunetix ou des cadres d’exploitation tels que Metasploit. Ces outils automatisent les étapes de reconnaissance et d’exploitation de la cyber kill chain. Aujourd’hui, ces outils nécessitent des conseils et une direction humains. Les menaces persistantes avancées (APT) qui les utilisent pour cibler des organisations se concentrent sur l’environnement d’une seule victime. Les outils font une grande partie du levage, mais les gens doivent interpréter les résultats et réagir en conséquence. Et si ces programmes fournissaient simplement leurs informations à un plus grand lac de données pour que l’IA les ingère ?
Nous pouvons voir comment les LLM utilisent des ensembles de données massifs pour créer une IA efficace et générative. Le modèle GPT-3 est suffisamment avancé pour prédire les combinaisons de syllabes et de mots, puis construire des réponses apparemment intelligentes aux requêtes. L’IA peut écrire un essai, un haïku ou un rapport sur n’importe quel sujet avec une simple invite. Bien sûr, le modèle ne sait pas réellement ce qu’il dit. Il s’est simplement entraîné sur les données linguistiques suffisamment longtemps pour prédire avec précision quel mot devrait venir ensuite dans une réponse.
Imaginez une IA qui s’entraîne à l’exploitation de la sécurité aussi profondément que les LLM s’entraînent au langage. Imaginez une formation à l’IA sur tous les CVE connus, le cadre de cybersécurité du NIST et le Top 10 de l’OWASP dans le cadre de son ensemble de données de base. Pour vraiment rendre cette IA dangereuse, elle devrait également s’entraîner sur des lacs de données générés par des outils de piratage populaires. Par exemple, utilisez Nmap pour quelques millions de réseaux et entraînez l’IA à reconnaître les corrélations entre les ports ouverts, les versions de système d’exploitation et les domaines. Exécutez des analyses de vulnérabilité Nessus dans des milliers d’environnements et transmettez les résultats à l’IA pour « apprendre » les modèles de failles de sécurité de l’entreprise. Cette approche peut être hors de portée des pirates informatiques de petite envergure, mais elle est certainement à la portée des groupes de menaces et des gouvernements parrainés par les États.
Une fois que cette IA malveillante est bien entraînée, elle peut prédire les combinaisons logicielles et matérielles vulnérables aussi précisément que ChatGPT choisit les mots. Il peut analyser un environnement, détecter plusieurs problèmes et renvoyer une liste classée des techniques d’exploitation possibles. Ou cela pourrait compromettre l’environnement, puis céder l’accès aux acteurs de la menace. Bien qu’un meilleur hameçonnage et plus de logiciels malveillants présentent des problèmes immédiats, ils sont négligeables par rapport aux dangers potentiels d’une IA entièrement militarisée.
La sécurité à travers l’obscurité
Heureusement, les organisations peuvent atténuer une grande partie de la menace posée par les IA malveillantes en masquant l’infrastructure de l’entreprise. Selon la définition de Gartner, les solutions d’accès réseau sans confiance (ZTNA) offrent une défense résiliente. Considérez un environnement de confiance zéro basé sur le cloud comme un proxy entre les utilisateurs et les ressources de l’entreprise. Avec cette configuration, les applications, les données et les services sont hébergés sur un réseau distinct des utilisateurs. Pour accéder aux ressources de l’entreprise, les utilisateurs doivent passer par un connecteur d’application qui effectue une analyse d’identité approfondie. Une fois qu’un utilisateur a réussi les vérifications d’identité et de contexte, l’architecture proxy le connecte directement à la ressource dans le cloud.
Il est important de noter que les utilisateurs n’ont jamais accès au réseau qui héberge les applications, les données et les services. Ils ne sont connectés qu’à la seule ressource demandée dans la transaction vérifiée. Cette approche masque le reste de l’infrastructure réseau et les ressources disponibles de la session sécurisée. Il n’y a aucune opportunité pour un initiateur d’effectuer un mouvement latéral ou une reconnaissance plus large de l’environnement.
Cette approche entrave l’IA contradictoire formée pour découvrir les vulnérabilités dans un environnement d’entreprise. Avec une infrastructure d’entreprise cachée derrière un service de proxy cloud sécurisé, l’IA ne peut pas voir l’environnement ni savoir ce qui est exploitable. La capacité des IA à trouver des opportunités d’exploitation repose sur une vue d’ensemble complète du matériel et des logiciels exécutant l’infrastructure de l’entreprise.
Qu’en est-il des utilisateurs ? Une IA adverse peut casser un terminal individuel, tel qu’un ordinateur portable ou un routeur domestique. Cependant, le contrôle de ces appareils ne fait pas grand-chose pour offrir un accès à l’IA à l’environnement commercial plus large. Les appareils et les identités compromis doivent encore passer l’analyse du contexte avant de se connecter aux ressources. Les demandes d’accès seront refusées si elles arrivent à un moment impair ou affichent d’autres fonctionnalités suspectes. Si l’IA peut raisonnablement imiter une demande légitime d’une identité compromise, elle se limite à accéder à la poignée de ressources disponibles pour cet utilisateur.
Cette approche d’accès ZTNA au niveau de l’identité élimine une grande partie de la surface d’attaque d’une organisation et minimise le danger que ce qui reste de l’infrastructure organisationnelle mobile derrière un échange de confiance zéro basé sur le cloud prive l’IA adverse de son avantage prédictif et basé sur les connaissances. Les organisations peuvent atteindre la sécurité grâce à l’obscurité en cachant tout ce que l’IA malveillante sait exploiter.