3 risques de cybersécurité importants présentés par l’IA générative

Accélération Économie Cybersécurité

Le paysage des menaces a pris une nouvelle dimension avec la récente prolifération de l’intelligence artificielle générative (IA), une technologie puissante qui peut créer et imiter un contenu de type humain. Un incident de 2019 aide à illustrer à quoi ressemble cette nouvelle menace en action : les pirates ont utilisé la technologie vocale générée par l’IA pour cibler une entreprise énergétique britannique. Ils ont imité la voix du PDG et ont amené son subordonné à transférer environ 243 000 $ sur un compte frauduleux.

Cet incident n’est que la pointe de l’iceberg, non seulement en ce qui concerne les possibilités de deepfake audio généré par l’IA, mais aussi avec l’utilisation croissante d’autres formes d’IA par des acteurs malveillants.

Dans cette analyse, j’explorerai trois des risques les plus importants associés à l’utilisation de l’IA générative par les attaquants et fournirai des informations sur la manière dont les responsables de la sécurité de l’information (CISO) peuvent protéger efficacement leurs organisations contre ces menaces émergentes.

Amplifier les attaques d’ingénierie sociale

L’IA générative peut imiter des comportements humains et créer un contenu réaliste, ce qui peut considérablement améliorer les attaques d’ingénierie sociale. Les acteurs malveillants peuvent utiliser des chatbots alimentés par l’IA pour créer des messages convaincants et personnalisés afin d’inciter les individus à divulguer des informations sensibles ou à cliquer sur des liens malveillants.

Dans le passé, l’une des premières lignes de défense contre ce type d’attaque consistait à repérer facilement les fautes d’orthographe et de grammaire. Les e-mails malveillants provenant de l’extérieur des États-Unis étaient souvent écrits par des anglophones non natifs utilisant Google Translate. Un exemple populaire, destiné à imiter un e-mail de Microsoft, a commencé par, Nous avons détecté quelque chose pour utiliser une application pour se connecter à votre ordinateur Windows. Avec l’IA, ces messages deviendront plus sophistiqués et il deviendra de plus en plus difficile de faire la distinction entre le contenu généré par l’IA et les véritables interactions humaines.

Pour lutter contre ce risque, les RSSI doivent se concentrer sur les programmes d’éducation et de sensibilisation des employés. Étant donné que le paysage évolue, le personnel doit disposer d’autres moyens de détecter les e-mails malveillants potentiels. Par exemple, en ajoutant « EXTERNAL » à la ligne d’objet d’un e-mail provenant de l’extérieur de votre organisation, les RSSI peuvent faciliter la distinction entre un e-mail usurpé et un e-mail interne réel.

Peu de temps après que l’un de mes précédents employeurs ait mis cela en pratique, notre directeur financier (CFO) a reçu un e-mail de phishing prétendant provenir de notre PDG lui demandant d’approuver une acquisition à sept chiffres. Étant donné que l’e-mail était facile à identifier comme venant de l’extérieur de l’organisation, elle a pris le téléphone pour vérifier. L’organisation a évité une perte importante.

Avec les anciennes méthodes d’identification des e-mails malveillants rendues inutiles par l’IA générative, celle-ci donne au personnel une autre flèche dans son carquois. De plus, la mise en œuvre d’une authentification multifacteur et de contrôles d’accès stricts peut ajouter une couche de sécurité supplémentaire, ce qui rend plus difficile pour les pirates d’exploiter les messages générés par l’IA.

Éviter les défenses de sécurité traditionnelles

Les algorithmes d’IA générative peuvent être formés pour détecter et exploiter les vulnérabilités des systèmes de sécurité, en évitant les défenses traditionnelles telles que la détection basée sur les signatures et les filtres basés sur des règles. Cette technique exploite la puissance de l’IA pour rationaliser le processus de découverte et d’exploitation des vulnérabilités, permettant aux acteurs malveillants de les identifier et de les exploiter à grande échelle et de minimiser l’effort manuel requis par les attaquants. En automatisant le processus, les attaquants peuvent rapidement cibler de nombreux systèmes ou instances logicielles, augmentant ainsi leurs chances de compromettre avec succès une cible. Cela expose les organisations au risque de violation de données, d’accès non autorisé et d’autres incidents de sécurité.

Pour aider à atténuer ce risque, les RSSI doivent adopter une approche proactive en mettant en œuvre des systèmes avancés de détection des menaces et de réponse. Combattant le feu par le feu, les équipes de sécurité peuvent utiliser des outils de cybersécurité basés sur l’IA pour garder une longueur d’avance sur les pirates. Les plates-formes de renseignement sur les menaces basées sur l’IA telles qu’Anomali ou Recorded Future utilisent des algorithmes d’apprentissage automatique pour analyser de grands ensembles de données, détecter des anomalies et identifier des menaces potentielles. En adoptant l’IA comme outil défensif, les organisations peuvent efficacement améliorer leur capacité à détecter et à répondre aux menaces émergentes.

«Il y a certainement une opportunité lorsqu’il s’agit d’effectuer des activités défensives en utilisant l’IA et les LLM. Mais ils ne sont pas parfaits. Il reste évidemment des défis à relever, mais c’est formidable de voir les fournisseurs de l’écosystème commencer à appliquer certains de ces éléments à leurs activités », déclare Chris Hughes, analyste praticien en cybersécurité de l’économie de l’accélération et CISO.

Chris Hugues
Chris Hughes, RSSI et analyste praticien de l’économie de l’accélération

Créer Logiciels malveillants générés par l’IA et menaces adaptatives

Les attaquants peuvent former des algorithmes d’IA pour générer des logiciels malveillants sophistiqués et automatiser les vulnérabilités. Les pirates peuvent utiliser des outils alimentés par l’IA pour générer des logiciels malveillants polymorphes (des logiciels malveillants qui peuvent modifier dynamiquement la structure et l’apparence de leur code tout en conservant leurs fonctionnalités de base). Traditionnellement, les auteurs de logiciels malveillants devaient modifier manuellement leur code pour créer de nouvelles variantes ou utiliser des techniques de cryptage simples pour obscurcir leurs logiciels malveillants. Cette nouvelle capacité pose un défi de taille aux professionnels de la cybersécurité alors qu’ils sont aux prises avec des menaces de plus en plus intelligentes et adaptatives.

Pour résoudre ce problème, les RSSI doivent explorer des approches innovantes en matière de cyberdéfense. L’une de ces approches consiste à adopter des systèmes d’alerte basés sur le comportement au lieu de s’appuyer uniquement sur les anciennes méthodes de détection basées sur les signatures. En mettant en œuvre des technologies avancées basées sur l’IA, les équipes de sécurité peuvent tirer parti de l’analyse comportementale pour identifier les modèles et les comportements anormaux qui peuvent indiquer une activité malveillante. Palo Alto et Trend Micro, deux sociétés figurant sur la liste des 10 meilleures entreprises en matière de cybersécurité de l’accélération de l’économie, proposent des outils de détection des logiciels malveillants de premier ordre basés sur le comportement. Ces systèmes analysent le comportement des utilisateurs, le trafic réseau et les activités du système pour détecter les écarts par rapport aux modèles normaux, permettant une détection précoce et une réponse aux menaces potentielles.

S’adapter pour contrer les menaces émergentes

À mesure que le paysage de la cybersécurité évolue, les organisations doivent adapter leurs stratégies et leurs défenses pour contrer les menaces émergentes. L’IA générative a le potentiel de révolutionner de nombreuses industries de manière positive, mais elle présente également de nouveaux défis entre les mains d’acteurs malveillants. Je suis fermement convaincu qu’au milieu de ces défis se trouve une opportunité pour la cybersécurité d’innover et de s’adapter. En restant informés, en adoptant des technologies avancées et en favorisant une culture de défense proactive, les CISO peuvent atténuer efficacement les risques associés à l’IA générative.


www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite