L’importance croissante de la cybersécurité dans le monde de l’intelligence artificielle

(sdécoret/Shutterstock)
Selon une enquête menée auprès des entreprises en 2023, 62 % des entreprises ont pleinement mis en œuvre l’intelligence artificielle (IA) pour la cybersécurité ou explorent d’autres utilisations de cette technologie. Cependant, avec les progrès des technologies de l’IA, de nouvelles possibilités d’utilisation abusive d’informations sensibles se multiplient.
À l’échelle mondiale, les organisations tirent parti de l’IA et mettent en œuvre des mesures de sécurité automatisées dans leur infrastructure pour réduire les vulnérabilités. À mesure que l’IA fait son apparition, les menaces continuent de prendre diverses formes. Un récent rapport d’IBM indique que le coût moyen d’une violation de données s’élève à 4,45 millions de dollars. La prolifération de l’IA générative (GAI) va probablement généraliser les attaques automatisées basées sur l’IA, y compris un niveau de personnalisation qui serait difficile à détecter par les humains sans l’aide de la GAI.
Alors que l’IA est un terme plus généralisé pour désigner le comportement technologique basé sur l’intelligence, la GAI est une sous-spécialité qui étend le concept de l’IA pour générer un nouveau contenu qui s’étend sur différents modes et même les combine. La principale source de préoccupation en matière de cybersécurité vient de la capacité de mutation des GAI, ce qui inclut le code auto-modifiable. Cela signifie que lorsqu’une attaque basée sur un modèle ne parvient pas à infiltrer un système, elle modifie son comportement opérationnel pour réussir.
Le risque croissant de cyberattaques coïncide avec la disponibilité plus répandue de l’IA et du GAI via GPT, BARD ou la gamme d’options open source. On soupçonne que des outils de cybercriminalité tels que WormGPT et PoissonGPT ont été développés à l’aide du modèle de langage open source GPT-J. Certains modèles de langage GAI, en particulier ChatGPT et BARD, comportent des restrictions anti-abus, mais la sophistication offerte par GAI dans la conception d’attaques, la génération de nouveaux exploits, le contournement des structures de sécurité et l’ingénierie intelligente des invites pourrait continuer de constituer une menace.
Des questions comme celles-ci s’inscrivent dans le problème primordial de déterminer ce qui est réel et ce qui est faux. La frontière entre vérité et canular étant floue, il est important de garantir l’exactitude et la crédibilité des modèles GAI en matière de cybersécurité lors de la détection d’informations frauduleuses. Capitaliser sur les algorithmes d’IA et de GAI pour se protéger contre les attaques générées par ces technologies constitue une voie à suivre prometteuse.
Normes et initiatives pour utiliser l’IA dans la cybersécurité
Selon un récent rapport de la Cloud Security Alliance (CSA), les modèles d’IA génératifs peuvent être utilisés pour améliorer considérablement l’analyse et le filtrage des vulnérabilités de sécurité. Dans le rapport, le CSA démontre comment OpenAI et les grands modèles de langage (LLM) restent un scanner de vulnérabilité efficace pour les menaces et les risques potentiels. Un exemple principal serait un scanner d’IA développé pour détecter rapidement les modèles de code non sécurisés permettant aux développeurs d’éliminer les failles ou les faiblesses potentielles avant qu’elles ne deviennent un risque important.
Plus tôt cette année, l’Institut national des normes et de la technologie a lancé le Centre d’IA digne de confiance et responsable qui comprenait son cadre de gestion des risques liés à l’IA (RMF). Le RMF aide les utilisateurs et les développeurs d’IA à comprendre et à gérer les risques courants liés aux systèmes d’IA tout en fournissant les meilleures pratiques pour les réduire. Malgré les intentions positives du RMF, le cadre reste insuffisant. En juin dernier, l’administration Biden-Harris a annoncé qu’un groupe de développeurs commencerait à élaborer des conseils destinés aux organisations pour les aider à évaluer et à gérer les risques associés au GAI.
Les cyberattaques deviendront moins coûteuses à l’avenir à mesure que les barrières à l’entrée s’abaisseront et que ces cadres s’avéreront être des mécanismes de guidage utiles. Néanmoins, le taux croissant d’attaques induites par l’IA/GAI obligera les développeurs et les organisations à bâtir et à se développer rapidement sur ces fondations.
Les avantages du GAI en cybersécurité
Alors que GAI réduit les temps de détection et de réponse pour garantir que les failles et les vulnérabilités sont efficacement corrigées, l’utilisation de GAI pour empêcher les attaques générées par l’IA est inévitable. Certains des avantages de cette approche comprennent :
- Détection et réponse. Les algorithmes d’IA peuvent être conçus pour analyser des ensembles de données vastes et diversifiés et capturer le comportement des utilisateurs du système afin de détecter les activités inhabituelles. En élargissant cela, GAI peut désormais générer une défense coordonnée ou un leurre contre ces activités inhabituelles en temps opportun. Les infiltrations dans les systèmes informatiques d’une organisation pendant des jours, voire des mois, peuvent être évitées.
- Simulation des menaces et formation. Les modèles peuvent simuler des scénarios de menaces et générer des ensembles de données synthétiques. Des scénarios de cyberattaques réalistes générés, incluant du code malveillant et des e-mails de phishing, peuvent améliorer radicalement la qualité de la réponse. Parce que l’IA et le GAI apprennent de manière adaptative, les scénarios deviennent progressivement complexes et difficiles à résoudre, créant ainsi un système interne plus robuste. L’IA et le GAI peuvent fonctionner efficacement dans des situations dynamiques, soutenant ainsi des exercices de cybersécurité destinés principalement à des fins de formation, comme Quantum Dawn.
- Capacités prédictives. Les réseaux composites IT/SI des organisations nécessitent des capacités prédictives pour évaluer les vulnérabilités potentielles qui évoluent et changent continuellement au fil du temps. Une évaluation cohérente des risques et des renseignements sur les menaces soutiennent et maintiennent les mesures proactives.
- Collaborations homme-machine, machine-machine. L’IA et le GAI ne garantissent pas un système entièrement automatisé qui exclut le besoin d’intervention humaine. Leur bagout
Les capacités de reconnaissance et de génération sont peut-être plus avancées, mais les organisations ont toujours besoin de créativité humaine et de leurs interventions. Dans ce contexte, la collaboration homme-machine réduit les dépassements et l’encombrement des réseaux causés par des faux positifs (attaque déterminée par l’IA qui n’est pas vraiment une attaque), tandis que la collaboration machine-machine réduit les faux négatifs au sein des organisations grâce à leurs fortes capacités combinées de reconnaissance de formes.
- Défense collaborative et approches coopératives. Les collaborations homme-machine et machine-machine peuvent garantir une défense coopérative lorsqu’elles sont mises en œuvre entre des organisations disparates ou concurrentes. Grâce à la collaboration, ces concurrents peuvent travailler ensemble de manière défensive. Il ne s’agit pas d’une situation à somme nulle, mais cela fait appel à la théorie des jeux coopératifs, une approche dans laquelle des groupes d’entités (organisations) forment des coalitions et agissent en tant qu’unités décisionnelles principales et indépendantes. En modélisant divers scénarios de cyberattaques sous forme de jeux, il est possible de prédire les actions des attaquants et d’identifier des stratégies de défense optimales. Il a été démontré que cette technique soutient la collaboration et le comportement coopératif et le résultat final constitue la base des politiques et de l’évaluation de la cybersécurité. Les systèmes d’IA conçus pour coopérer avec d’autres modèles d’IA d’organisations concurrentes pourraient fournir un équilibre coopératif extrêmement stable. Actuellement, ces coalitions reposent principalement sur des échanges d’informations. La coopération IA-IA peut permettre des mécanismes de détection et de réponse plus complexes.
Ces avantages contribuent à l’impact global des GAI sur la cybersécurité, mais ce sont les efforts de collaboration entre les développeurs et l’IA mise en œuvre qui optimisent la cyberdéfense.
Une approche moderne de la cybersécurité
D’ici 2027, le marché mondial des technologies de cybersécurité basées sur l’IA devrait croître à un taux de croissance annuel composé de 23,6 %. Bien qu’il soit impossible de prédire pleinement où vont l’IA générative et son rôle dans la cybersécurité, on peut affirmer sans se tromper qu’il n’y a pas lieu de craindre ou de considérer l’IA comme une menace potentielle. Une approche moderne de la cybersécurité est centrée sur une modélisation standardisée de l’IA avec un potentiel d’innovation et de développement continus.
A propos de l’auteur
Shivani Shukla se spécialise dans la recherche opérationnelle, les statistiques et l’IA avec plusieurs années d’expérience dans la recherche universitaire et industrielle. Elle est actuellement directrice des programmes de premier cycle en analyse commerciale ainsi que professeure agrégée en analyse commerciale et SI. pour plus d’informations, contactez [email protected].
En rapport