L’épée à double tranchant de l’IA : faire face aux menaces de cybersécurité en constante évolution
Aujourd’hui, une cyberattaque est lancée toutes les 39 secondes environ. Des attaques de phishing aux ransomwares, la cybercriminalité se présente sous de nombreuses formes et tailles, mais quel que soit le format de l’attaque, les résultats sont dévastateurs.
La cybercriminalité est en passe de nous coûter 9 500 milliards de dollars en 2024. Et comme l’IA est désormais exploitée par de mauvais acteurs pour commettre des attaques plus sophistiquées à plus grande échelle, ce chiffre ne fera qu’augmenter.
Alors, à quoi ressemble ce paysage de menaces en évolution depuis les tranchées ? Et que font les entreprises pour défendre leurs actifs numériques les plus précieux contre le danger en développement rapide de la cybercriminalité alimentée par l’IA ?
Le récent rapport de RiverSafe interroge les RSSI de tout le Royaume-Uni sur leurs expériences dans le cyberenvironnement actuel et sur les défis auxquels ils sont confrontés dans leur lutte contre les cybercriminels dans ce qui s’annonce comme une course aux armements à long terme en matière d’IA. Voici quelques-uns des points clés à retenir pour vous aider à vous préparer à un torrent croissant de cybermenaces.
Soyez conscient de la façon dont l’IA change le paysage des menaces
Un RSSI sur cinq cite l’IA comme la plus grande menace cybernétique, à mesure que la technologie de l’IA devient à la fois plus disponible et plus avancée.
Les outils d’IA dotent les cybercriminels de nouvelles capacités et optimisent leurs méthodes les plus efficaces pour les aider à lancer des attaques plus rapidement et à plus grande échelle. Selon le National Cyber Security Centre (NCSC), l’IA est déjà largement utilisée dans les activités cybernétiques malveillantes et « augmentera presque certainement le volume et l’impact des cyberattaques, y compris les ransomwares, à court terme ».
L’une des façons les plus simples et les plus dévastatrices dont l’IA aide les cybercriminels consiste à faciliter la modification des attaques courantes afin de les rendre plus difficiles à détecter pour les logiciels antivirus, les filtres anti-spam et d’autres mesures de cybersécurité.
Prenons l’exemple des logiciels malveillants : une technique potentiellement paralysante qui cause davantage de dégâts à mesure qu’elle passe inaperçue. Grâce à l’IA, les pirates peuvent transformer les infections par des logiciels malveillants pour leur permettre de se cacher des logiciels antivirus. Une fois qu’un logiciel malveillant assisté par l’IA est détecté par les défenses d’un système, l’IA peut rapidement générer de nouvelles variantes que le système ne saura pas identifier, permettant au logiciel malveillant de continuer à se cacher dans votre environnement et de voler des données sensibles, puis de se propager à d’autres appareils. , et mener d’autres attaques inaperçues.
Et ce n’est qu’un cas d’utilisation. Les cybercriminels utilisent également l’IA pour contourner les pare-feu en générant ce qui semble être un trafic légitime, en générant du contenu d’ingénierie sociale plus efficace et plus convaincant, comme des e-mails de phishing, et en créant des deepfakes pour inciter les victimes inconscientes à leur transmettre des informations sensibles.
Mettre en place une politique pour minimiser le risque d’utilisation abusive de l’IA
Les tiers malveillants ne sont pas les seuls à pouvoir utiliser l’IA pour nuire à votre organisation. Vos employés, simplement en utilisant innocemment des outils d’IA pour leur faciliter la vie, peuvent exposer votre entreprise à un risque accru de violation de données majeure.
Un responsable de la sécurité sur cinq a admis avoir été victime d’une violation de données dans son organisation à la suite du partage de données par des employés avec des outils d’IA tels que ChatGPT.
L’accessibilité et la facilité d’utilisation des outils d’IA générative en ont fait une option populaire auprès des employés, les aidant à accomplir des tâches ou à trouver des réponses à des requêtes en une fraction du temps qu’il faudrait pour le faire manuellement.
La grande majorité des employés qui utilisent ces outils pratiques et apparemment simples ne se demandent pas où vont les données qu’ils y saisissent, ni comment elles pourraient être utilisées. Puisqu’ils ne partagent pas d’informations directement avec une autre personne, de nombreux utilisateurs n’hésiteront pas à partager des données commerciales propriétaires avec un chatbot si cela les aide à faire leur travail.
Mais les données saisies dans les outils d’IA générative ne sont pas nécessairement sûres. En 2023, ChatGPT a connu sa première violation majeure de données, exposant les détails de paiement et d’autres informations personnelles des abonnés ChatGPT Plus.
Ces outils sont devenus omniprésents presque du jour au lendemain, et les entreprises tentent désormais de rattraper leur retard pour tenter d’atténuer les risques encourus. Si certaines entreprises ont pris des mesures extrêmes en réponse, en interdisant purement et simplement l’utilisation d’outils d’IA générative dans leurs organisations, de telles mesures ne devraient être qu’une solution provisoire à court terme. La réalité est que l’IA générative est là pour durer et offre de nombreux avantages aux entreprises et aux employés lorsqu’elle est utilisée correctement. L’éducation et des politiques soigneusement gérées sont une bien meilleure voie à suivre pour s’assurer que votre entreprise bénéficie des avantages de l’IA tout en réduisant les risques de sécurité.
Ne sous-estimez pas les menaces internes
75 % des personnes interrogées estiment que les menaces internes représentent un plus grand risque pour la cybersécurité de leur organisation que les menaces externes.
Il est bien connu que l’erreur humaine est l’une des principales causes de violations de données et d’incidents de sécurité. Et comme ces erreurs sont souvent le résultat de l’ignorance ou d’erreurs réelles et involontaires plutôt que d’une attaque ciblée, elles constituent également l’une des choses les plus difficiles à contrer. Le vaste vecteur « d’attaque » des menaces internes est une autre raison pour laquelle elles sont si difficiles à atténuer, les risques potentiels provenant non seulement des employés, mais également des sous-traitants, des tiers et de toute autre personne ayant un accès légitime aux données ou aux systèmes.
Il existe clairement une compréhension largement répandue des dommages que les menaces internes peuvent causer, mais s’en protéger constitue un défi. Près des deux tiers (64 %) des RSSI déclarent que leur organisation ne dispose pas de suffisamment de technologie pour se protéger contre les menaces internes.
Avec une augmentation de 47 % du nombre d’incidents liés à des menaces internes au cours des cinq dernières années, cela représente un nombre incroyablement élevé d’entreprises qui ne disposent pas des outils adéquats pour lutter contre les menaces internes.
Alors, qu’est-ce qui alimente cette forte augmentation ? Une surface d’attaque en constante expansion est un facteur. La transformation numérique est à l’ordre du jour et les entreprises dépendent désormais davantage des solutions et des infrastructures cloud. Même si ces solutions sont souvent intrinsèquement plus sécurisées, la complexité et l’interconnectivité croissantes de nos environnements informatiques peuvent rendre difficile le maintien de niveaux d’accès et de configurations de sécurité appropriés.
Et ce n’est pas seulement l’infrastructure informatique qui devient de plus en plus complexe. Les chaînes d’approvisionnement numériques se développent également, les organisations se connectant à d’autres entreprises, partenaires, fournisseurs et éditeurs de logiciels de manière à créer de nouvelles portes d’accès à votre environnement pour les attaquants malveillants. En fait, on estime que les partenaires commerciaux de confiance sont désormais responsables de jusqu’à 25 % des incidents de menaces internes.
La menace que l’IA représente pour la cybersécurité augmente, tant du point de vue interne qu’externe, et les stratégies de sécurité d’hier ne suffiront pas si les organisations veulent atténuer les dommages potentiellement massifs que les attaques alimentées par l’IA peuvent causer.
Les entreprises doivent réorganiser leurs politiques de cybersécurité, leurs meilleures pratiques et la formation de sensibilisation de leurs employés pour s’assurer qu’elles sont préparées à une nouvelle ère de cybermenaces.
Nous avons répertorié les meilleurs logiciels de gestion de correctifs.
Cet article a été produit dans le cadre de la chaîne Expert Insights de TechRadarPro, où nous présentons les esprits les plus brillants et les plus brillants du secteur technologique actuel. Les opinions exprimées ici sont celles de l’auteur et ne sont pas nécessairement celles de TechRadarPro ou Future plc. Si vous êtes intéressé à contribuer, découvrez-en plus ici : https://www.techradar.com/news/submit-your-story-to-techradar-pro