#image_title

L’IA et le ML sont des problèmes de cybersécurité – et des solutions

Une manière multiforme d’accélérer les cyberattaques basées sur l’IA et le ML

Parmi les responsables de la sécurité de l’information (RSSI) et les cadres supérieurs, seulement 1 sur 5 considère que sa cybersécurité est efficace aujourd’hui et bien positionnée pour demain, selon l’étude EY 2023 Global Cybersecurity Leadership Insights. En moyenne, les participants déclarent avoir répondu à 44 cyberincidents en 2022, et pour 76 % de ces incidents, la détection et la réponse ont pris six mois ou plus. Au cours des cinq dernières années, les cyberattaques connues ont augmenté d’environ 75 %, selon la base de données sur les événements cybernétiques du Centre d’études internationales et de sécurité du Maryland. La fréquence exacte des attaques basées sur l’IA est inconnue, mais il est évident que l’utilisation de l’IA dans les cyberattaques augmente et représente un danger croissant pour les organisations et les individus.

Les attaques de ML contradictoire peuvent utiliser les algorithmes d’IA propres à une organisation pour produire des entrées nuisibles et contaminer des algorithmes légitimes. En raison de la contamination des données, les pirates informatiques manipulent les données utilisées pour entraîner un modèle d’IA, ce qui conduit à une prise de décision incorrecte, par exemple en identifiant à tort un code malveillant comme étant sûr. Les algorithmes d’IA peuvent également être exploités via le ML contradictoire, dans lequel les attaquants utilisent des méthodes pour tromper le système d’IA et l’amener à prendre des décisions incorrectes, ce qui empêche le système de détecter ou de négliger les activités malveillantes.

Plus inquiétant que la progression des capacités des attaquants est le changement de leurs tactiques. Les stratégies traditionnelles visaient à éviter la détection et à contourner les mesures de cybersécurité d’une organisation. Désormais, les adversaires lancent des attaques visant les contrôles de cybersécurité. Selon Microsoft, les algorithmes d’IA utilisés pour détecter les logiciels malveillants pourraient être sensibles aux attaques de contamination des données, dans lesquelles les attaquants introduisent des logiciels malveillants dans l’ensemble de données de formation, ce qui amènerait l’IA à les classer à tort comme inoffensifs.1

D’autres cyberattaques récentes et bien connues basées sur l’IA ont inclus des techniques telles que :

  • Attaques de phishing utilisant des algorithmes de ML pour générer des e-mails de phishing personnalisés et convaincants, plus susceptibles d’inciter les utilisateurs à divulguer leurs informations personnelles ou leurs identifiants de connexion.
  • Exfiltration de données, dans laquelle un programme d’IA est amené à divulguer des informations personnellement identifiables ou d’autres données exclusives
  • Ransomware qui utilise des algorithmes de ML pour s’adapter aux nouvelles mesures de sécurité et échapper à la détection
  • Automatisation de l’IA utilisée pour créer et distribuer des logiciels malveillants, permettant aux attaquants de créer et de diffuser des logiciels malveillants plus rapidement et plus efficacement.
  • Attaques par déni de service qui utilisent des algorithmes de ML pour générer des volumes élevés de trafic réseau afin de submerger et de mettre hors service les systèmes cibles.

Les risques posés par les technologies de l’IA sont encore exacerbés par la facilité avec laquelle elles peuvent être utilisées. Les innovations sont introduites rapidement et à grande échelle, augmentant ainsi le nombre d’acteurs de menace potentiels auxquels les organisations doivent faire face. La nouvelle normalité apportera :

  • Un nouveau groupe d’acteurs malveillants avec des niveaux de compétence variés et des motivations indéfinies. Par exemple, des individus simplement curieux ou cherchant à se faire connaître en tant que pirate informatique peuvent ne pas comprendre les impacts de leurs actions.
  • Les attaques deviennent plus opportunistes et évolutives grâce à l’IA. Cela signifie que les organisations ne sont pas toujours ciblées mais plutôt attaquées parce qu’elles sont vulnérables.
  • Les robots IA peuvent accélérer le processus d’identification des faiblesses des systèmes cibles ou lancer des attaques ciblées.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite