L’impact des développements de l’intelligence artificielle sur la cybersécurité

Crédit image : Fourni
Les progrès de l’intelligence artificielle (IA) ces dernières années ont été des plus fulgurants. Avec les nouvelles avancées technologiques, l’IA est désormais au cœur du paysage technologique actuel. Selon une enquête menée par Gartner, les investissements dans les produits logiciels d’IA devraient atteindre 62 milliards de dollars en 2022, soit une infime fraction de leur potentiel.
Alors que les capacités de l’IA gagnent en accessibilité et permettent aux spécialistes de la cybersécurité de les utiliser comme outils de défense, les acteurs malveillants profitent également de cet accès démocratisé. Afin de contrecarrer d’éventuelles cyberattaques et de mieux protéger les entreprises et les particuliers contre les cybermenaces, les acteurs de la sécurité suivent de près les évolutions de l’IA et mesurent son influence sur la cybersécurité.
Les défenseurs n’ont pas le monopole des innovations
Il y a dix ans, personne n’aurait imaginé voir les solutions d’IA atteindre les niveaux actuels de complexité et de sophistication, et encore moins voir l’IA s’intégrer dans un si large éventail de solutions technologiques. Selon les prévisions de Gartner concernant les prochains développements technologiques majeurs, la technologie d’IA générative devrait à elle seule créer 10 % de toutes les données générées d’ici 2025, contre seulement 1 % aujourd’hui. Le principal moteur d’une augmentation aussi importante de la mise à jour de l’IA sera tiré par une accessibilité de plus en plus démocratisée aux modèles d’IA et par la diminution des coûts de calcul nécessaires pour former et exécuter ces modèles.
Des chercheurs d’organisations dotées de grands clusters de calcul comme Google et OpenAI ont montré qu’en formant d’énormes modèles d’IA à paramètres sur une grande quantité de données, il était possible de pousser les performances des modèles génératifs à des niveaux presque impossibles à distinguer du contenu généré par l’homme. Il a été démontré que ces modèles d’IA génèrent des articles au son réaliste, du code source fonctionnel à partir de descriptions textuelles et même des images artistiques capables de gagner des concours d’art. Dans le même temps, des innovations, comme le modèle de diffusion stable, réduisent rapidement le coût de la formation et de l’utilisation de tels modèles.
Avec une baisse rapide des coûts, les cybercriminels ne tarderont pas à adapter ces nouvelles approches d’IA à leurs outils. Une telle adaptation conduira à de nouveaux types d’attaques à faible coût, plus difficiles à détecter.
Par exemple, les cybercriminels pourraient générer automatiquement et à moindre coût des millions de faux profils sociaux réalistes ou de sites Web de phishing qui seraient indétectables au premier passage par un humain. De nouveaux types de modèles d’IA sont désormais capables de générer synthétiquement une voix ou une vidéo réaliste à partir d’un petit nombre d’échantillons seulement, ce qui facilite grandement les attaques ciblées de chasse à la baleine.
Avancer, tout en se protégeant maintenant
De nouvelles recherches devront être menées sur les moyens de détecter efficacement les faux contenus générés par l’IA. La détection de faux contenus est un domaine de recherche actif, les chercheurs cherchant déjà à créer leurs propres modèles d’IA capables de détecter efficacement le faux contenu généré par l’IA. Dans le même temps, certaines approches et attentes en matière de sécurité pourraient devoir changer.
Par exemple, s’attendre à ce que les utilisateurs finaux identifient d’une manière ou d’une autre les attaques sans outils de support supplémentaires deviendra encore moins pratique face à un faux contenu hyper réaliste généré artificiellement.
Pendant ce temps, en attendant le développement de nouvelles méthodes contre ces cyberattaques profondes, afin que ce type d’attaques puisse être détecté le plus tôt possible, le conseil actuel en matière de cybersécurité reste plus vrai que jamais : assurez-vous d’avoir plusieurs niveaux de protection actifs à chaque étape. étapes de la cyberattaque, car même les adversaires les plus intelligents devront éventuellement effectuer quelque chose de si clairement malveillant qu’aucune quantité de magie de l’IA ne pourra le déguiser.
Konstantin Berlin est le responsable de l’IA chez Sophos