Au-delà du buzz : comprendre l’IA et son rôle dans la cybersécurité
Sécurité numérique
Un nouveau livre blanc d’ESET révèle les risques et les opportunités de l’intelligence artificielle pour les cyber-défenseurs
28 mai 2024
•
,
5 minutes. lire

L’intelligence artificielle (IA) est le sujet du jour, les dernières et meilleures technologies d’IA faisant l’objet d’une couverture médiatique à couper le souffle. Et probablement peu de secteurs sont susceptibles de gagner autant, voire d’être aussi durement touchés, que la cybersécurité. Contrairement à la croyance populaire, certains acteurs du domaine utilisent cette technologie sous une forme ou une autre depuis plus de deux décennies. Mais la puissance du cloud computing et des algorithmes avancés se combinent pour renforcer encore les défenses numériques ou contribuer à créer une nouvelle génération d’applications basées sur l’IA, qui pourraient transformer la manière dont les organisations se protègent, détectent et réagissent aux attaques.
D’un autre côté, à mesure que ces capacités deviennent moins coûteuses et plus accessibles, les acteurs de la menace utiliseront également la technologie à des fins d’ingénierie sociale, de désinformation, d’escroquerie et bien plus encore. Un nouveau livre blanc d’ESET vise à découvrir les risques et les opportunités pour les cyberdéfenseurs.

Une brève histoire de l’IA dans la cybersécurité
Les grands modèles de langage (LLM) sont peut-être la raison pour laquelle les conseils d’administration du monde entier parlent de l’IA, mais la technologie est utilisée à bon escient depuis des années. ESET, par exemple, a déployé pour la première fois l’IA il y a plus d’un quart de siècle via des réseaux de neurones dans le but d’améliorer la détection des macrovirus. Depuis, l’entreprise utilise l’IA sous diverses formes pour :
- Différenciation entre les exemples de code malveillant et propre
- Triage, tri et étiquetage rapides des échantillons de logiciels malveillants beaucoup
- Un système de réputation cloud, exploitant un modèle d’apprentissage continu via les données de formation
- Protection des terminaux avec une détection élevée et de faibles taux de faux positifs, grâce à une combinaison de réseaux neuronaux, d’arbres de décision et d’autres algorithmes
- Un puissant outil de bac à sable cloud optimisé par la détection, le déballage et l’analyse d’apprentissage automatique multicouche, la détection expérimentale et l’analyse approfondie du comportement.
- Nouvelle protection du cloud et des points de terminaison optimisée par des modèles d’IA de transformateur
- XDR qui permet de prioriser les menaces en corrélant, triant et regroupant de grands volumes d’événements
Pourquoi l’IA est-elle utilisée par les équipes de sécurité ?
Aujourd’hui, les équipes de sécurité ont plus que jamais besoin d’outils efficaces basés sur l’IA, grâce à trois facteurs principaux :
1. Les pénuries de compétences continuent de frapper durement
Au dernier décompte, il manquait environ quatre millions de professionnels de la cybersécurité dans le monde, dont 348 000 en Europe et 522 000 en Amérique du Nord. Les organisations ont besoin d’outils pour améliorer la productivité du personnel dont elles disposent et pour fournir des conseils sur l’analyse des menaces et les mesures correctives en l’absence de collègues seniors. Contrairement aux équipes humaines, l’IA peut fonctionner 24 heures sur 24, 7 jours sur 7, 365 jours par an et détecter les schémas que les professionnels de la sécurité pourraient manquer.
2. Les acteurs de la menace sont agiles, déterminés et disposent de ressources suffisantes
Alors que les équipes de cybersécurité peinent à recruter, leurs adversaires ne cessent de se renforcer. Selon une estimation, l’économie de la cybercriminalité pourrait coûter au monde jusqu’à 10 500 milliards de dollars par an d’ici 2025. Les cybercriminels en herbe peuvent trouver tout ce dont ils ont besoin pour lancer des attaques, regroupés dans des offres et des boîtes à outils « en tant que service » prêtes à l’emploi. Les courtiers tiers offrent un accès aux organisations pré-piratées. Et même des acteurs étatiques s’impliquent dans des attaques motivées par des raisons financières – notamment la Corée du Nord, mais aussi la Chine et d’autres pays. Dans des États comme la Russie, le gouvernement est soupçonné d’entretenir activement un hacktivisme anti-occidental.
3. Les enjeux n’ont jamais été aussi élevés
À mesure que les investissements dans le numérique ont augmenté au fil des années, le recours aux systèmes informatiques pour alimenter une croissance durable et un avantage concurrentiel a également augmenté. Les défenseurs des réseaux savent que s’ils ne parviennent pas à prévenir ou à détecter et contenir rapidement les cybermenaces, leur organisation pourrait subir d’importants dommages financiers et de réputation. Une violation de données coûte aujourd’hui en moyenne 4,45 millions de dollars. Mais une grave violation de ransomware impliquant une interruption de service et un vol de données pourrait atteindre plusieurs fois ce montant. Selon une estimation, les institutions financières à elles seules ont perdu 32 milliards de dollars en temps d’arrêt en raison d’interruptions de service depuis 2018.
Comment l’IA est-elle utilisée par les équipes de sécurité ?
Il n’est donc pas surprenant que les organisations cherchent à exploiter la puissance de l’IA pour les aider à prévenir, détecter et répondre plus efficacement aux cybermenaces. Mais comment font-ils exactement ? En corrélant des indicateurs dans de grands volumes de données pour identifier les attaques. En identifiant les codes malveillants grâce à des activités suspectes qui sortent de la norme. Et en aidant les analystes des menaces à interpréter des informations complexes et à hiérarchiser les alertes.
Voici quelques exemples d’utilisations positives actuelles et futures de l’IA :
- Renseignements sur les menaces : Les assistants GenAI basés sur LLM peuvent simplifier les tâches complexes en analysant des rapports techniques denses pour résumer les points clés et les points à retenir dans un anglais simple pour les analystes.
- Assistants IA : L’intégration de « copilotes » d’IA dans les systèmes informatiques peut contribuer à éliminer les erreurs de configuration dangereuses qui autrement exposeraient les organisations à des attaques. Cela pourrait fonctionner aussi bien pour les systèmes informatiques généraux tels que les plates-formes cloud que pour les outils de sécurité tels que les pare-feu, qui peuvent nécessiter la mise à jour de paramètres complexes.
- Augmenter la productivité du SOC : Aujourd’hui, les analystes des centres d’opérations de sécurité (SOC) subissent une pression énorme pour détecter, répondre et contenir rapidement les menaces entrantes. Mais l’ampleur même de la surface d’attaque et le nombre d’outils générant des alertes peuvent souvent s’avérer écrasants. Cela signifie que les menaces légitimes passent inaperçues tandis que les analystes perdent leur temps sur des faux positifs. L’IA peut alléger ce fardeau en contextualisant et en hiérarchisant ces alertes – et peut-être même en résolvant les alertes mineures.
- Nouvelles détections : Les acteurs de la menace font constamment évoluer leurs tactiques, techniques et procédures (TTP). Mais en combinant des indicateurs de compromission (IoC) avec des informations accessibles au public et des flux de menaces, les outils d’IA pourraient rechercher les dernières menaces.
Comment l’IA est-elle utilisée dans les cyberattaques ?
Malheureusement, les méchants ont également leur dévolu sur l’IA. Selon le National Cyber Security Centre (NCSC) du Royaume-Uni, cette technologie va « accroître la menace mondiale des ransomwares » et « augmentera presque certainement le volume et l’impact des cyberattaques au cours des deux prochaines années ». Comment les acteurs de la menace utilisent-ils actuellement l’IA ? Considérer ce qui suit:
- Ingénierie sociale: L’une des utilisations les plus évidentes de GenAI est d’aider les acteurs malveillants à élaborer à grande échelle des campagnes de phishing très convaincantes et presque grammaticalement parfaites.
- BEC et autres arnaques : Une fois de plus, la technologie GenAI peut être déployée pour imiter le style d’écriture d’un individu ou d’une entreprise spécifique, afin d’inciter une victime à transférer de l’argent ou à transmettre des données/connexions sensibles. L’audio et la vidéo Deepfake pourraient également être déployés dans le même but. Le FBI a émis plusieurs avertissements à ce sujet dans le passé.
- Désinformation: GenAI peut également simplifier la création de contenu pour les opérations d’influence. Un rapport récent avertissait que la Russie utilisait déjà de telles tactiques – qui pourraient être largement reproduites si elles s’avèrent efficaces.
Les limites de l’IA
Pour le meilleur ou pour le pire, l’IA a actuellement ses limites. Il peut générer des taux de faux positifs élevés et, sans ensembles de formation de haute qualité, son impact sera limité. Une surveillance humaine est également souvent nécessaire pour vérifier que les résultats sont corrects et pour former les modèles eux-mêmes. Tout cela montre que l’IA n’est ni une solution miracle pour les attaquants ni pour les défenseurs.
Avec le temps, leurs outils pourraient s’affronter : l’un cherchant à percer les failles des défenses et à tromper les employés, tandis que l’autre recherche les signes d’une activité malveillante de l’IA. Bienvenue au début d’une nouvelle course aux armements en matière de cybersécurité.
Pour en savoir plus sur l’utilisation de l’IA dans la cybersécurité, consultez Le nouveau rapport d’ESET
