L’intelligence artificielle joue un rôle plus important dans la cybersécurité, mais les méchants pourraient en profiter le plus

Des agents de sécurité surveillent devant un panneau d’intelligence artificielle (IA) lors de l’événement annuel Huawei Connect à Shanghai, en Chine, le 18 septembre 2019.

Chanson d’Aly | Reuter

L’intelligence artificielle joue un rôle de plus en plus important dans la cybersécurité, tant pour le bien que pour le mal. Les organisations peuvent tirer parti des derniers outils basés sur l’IA pour mieux détecter les menaces et protéger leurs systèmes et leurs ressources de données. Mais les cybercriminels peuvent également utiliser la technologie pour lancer des attaques plus sophistiquées.

L’augmentation des cyberattaques contribue à alimenter la croissance du marché des produits de sécurité basés sur l’IA. Un rapport de juillet 2022 d’Acumen Research and Consulting indique que le marché mondial était de 14,9 milliards de dollars en 2021 et devrait atteindre 133,8 milliards de dollars d’ici 2030.

Un nombre croissant d’attaques telles que le déni de service distribué (DDoS) et les violations de données, dont beaucoup sont extrêmement coûteuses pour les organisations concernées, génèrent un besoin de solutions plus sophistiquées.

Selon le rapport, un autre moteur de la croissance du marché a été la pandémie de Covid-19 et le passage au travail à distance. Cela a forcé de nombreuses entreprises à mettre davantage l’accent sur la cybersécurité et l’utilisation d’outils alimentés par l’IA pour détecter et arrêter plus efficacement les attaques.

À l’avenir, des tendances telles que l’adoption croissante de l’Internet des objets (IoT) et le nombre croissant d’appareils connectés devraient alimenter la croissance du marché, selon le rapport Acumen. L’utilisation croissante des services de sécurité basés sur le cloud pourrait également offrir des opportunités pour de nouvelles utilisations de l’IA pour la cybersécurité.

Renforcement de la sécurité de l’IA

Parmi les types de produits qui utilisent l’IA figurent les antivirus/antimalware, la prévention des pertes de données, la détection des fraudes/anti-fraude, la gestion des identités et des accès, le système de détection/prévention des intrusions et la gestion des risques et de la conformité.

Jusqu’à présent, l’utilisation de l’IA pour la cybersécurité a été quelque peu limitée. « Jusqu’à présent, les entreprises ne confient pas leurs programmes de cybersécurité à l’IA », a déclaré Brian Finch, co-responsable de la pratique de la cybersécurité, de la protection des données et de la confidentialité au sein du cabinet d’avocats Pillsbury Law. « Cela ne signifie pas que l’IA n’est pas utilisée. Nous voyons des entreprises utiliser l’IA, mais de manière limitée », principalement dans le contexte de produits tels que les filtres de messagerie et les outils d’identification des logiciels malveillants qui sont alimentés par l’IA d’une manière ou d’une autre.

« Plus intéressant encore, nous voyons des outils d’analyse comportementale utiliser de plus en plus l’IA », a déclaré Finch. « J’entends par là des outils analysant les données pour déterminer le comportement des pirates afin de voir s’il existe un schéma dans le moment de leurs attaques, la méthode d’attaque et la façon dont les pirates se déplacent lorsqu’ils sont à l’intérieur des systèmes. La collecte de telles informations peut être très précieuse pour les défenseurs. »

Dans une étude récente, la société de recherche Gartner a interrogé près de 50 fournisseurs de sécurité et a trouvé parmi eux quelques modèles d’utilisation de l’IA, déclare Mark Driver, vice-président de la recherche.

« La très grande majorité, ils ont signalé que le premier objectif de l’IA était de » supprimer les faux positifs « dans la mesure où l’un des principaux défis des analystes en sécurité est de filtrer le signal du bruit dans de très grands ensembles de données », a déclaré Driver. « L’IA peut réduire cela à une taille raisonnable, ce qui est beaucoup plus précis. Les analystes peuvent ainsi travailler plus intelligemment et plus rapidement pour résoudre les cyberattaques. »

En général, l’IA est utilisée pour aider à détecter les attaques avec plus de précision, puis à hiérarchiser les réponses en fonction des risques réels, a déclaré Driver. Et il permet des réponses automatisées ou semi-automatisées aux attaques, et fournit enfin une modélisation plus précise pour prédire les attaques futures. « Tout cela ne supprime pas nécessairement les analystes de la boucle, mais cela rend le travail des analystes plus agile et plus précis face aux cybermenaces », a déclaré Driver.

Ajout aux cybermenaces

D’un autre côté, les mauvais acteurs peuvent également profiter de l’IA de plusieurs manières. « Par exemple, l’IA peut être utilisée pour identifier des modèles dans les systèmes informatiques qui révèlent des faiblesses dans des logiciels ou des programmes de sécurité, permettant ainsi aux pirates d’exploiter ces faiblesses nouvellement découvertes », a déclaré Finch.

Lorsqu’ils sont combinés avec des informations personnelles volées ou des données open source collectées telles que des publications sur les réseaux sociaux, les cybercriminels peuvent utiliser l’IA pour créer un grand nombre d’e-mails de phishing afin de diffuser des logiciels malveillants ou de collecter des informations précieuses.

« Les experts en sécurité ont noté que les e-mails de phishing générés par l’IA ont en fait des taux d’ouverture plus élevés [for example] incitant les victimes potentielles à cliquer dessus et à générer ainsi des attaques plutôt que des e-mails de phishing créés manuellement », a déclaré Finch. « L’IA peut également être utilisée pour concevoir des logiciels malveillants en constante évolution, afin d’éviter la détection par des outils de défense automatisés.

Les signatures de logiciels malveillants en constante évolution peuvent aider les attaquants à échapper aux défenses statiques telles que les pare-feu et les systèmes de détection de périmètre. De même, les logiciels malveillants alimentés par l’IA peuvent rester à l’intérieur d’un système, collecter des données et observer le comportement des utilisateurs jusqu’à ce qu’ils soient prêts à lancer une autre phase d’attaque ou à envoyer des informations qu’ils ont collectées avec un risque de détection relativement faible. C’est en partie pourquoi les entreprises s’orientent vers un modèle « zéro confiance », où des défenses sont mises en place pour défier et inspecter en permanence le trafic réseau et les applications afin de vérifier qu’elles ne sont pas nuisibles.

Mais Finch a déclaré: «Étant donné l’économie des cyberattaques, il est généralement plus facile et moins cher de lancer des attaques que de construire des défenses efficaces, je dirais que l’IA sera dans l’ensemble plus nuisible qu’utile. difficile à construire et nécessite beaucoup de personnes spécialement formées pour que cela fonctionne bien. Les criminels ordinaires n’auront pas accès aux plus grands esprits de l’IA au monde.

Le programme de cybersécurité pourrait avoir accès à « de vastes ressources de la Silicon Valley et autres [to] construire de très bonnes défenses contre les cyberattaques d’IA de bas niveau », a déclaré Finch. « Lorsque nous entrons dans l’IA développée par des États-nations pirates [such as Russia and China]leurs systèmes de piratage d’IA sont probablement assez sophistiqués, et donc les défenseurs vont généralement rattraper les attaques alimentées par l’IA. »

La Chine ne respecte pas les règles en matière de cyber, déclare David Kennedy, PDG de TrustedSec
www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite