#image_title

Ce que l’IA générative signifie pour la cybersécurité en 2024

(Mas)utilisation de l’IA générative pour la cybercriminalité

Lorsque les versions publiques de l’IA générative sont apparues pour la première fois, certains experts craignaient que les criminels ne créent des modèles GPT sombres et d’autres types de moteurs d’IA générative pour produire des logiciels malveillants imparables. Il existe certainement une demande en ce sens, et des tentatives ont été faites, mais jusqu’à présent, cela semble plus facile à dire qu’à faire. FraudGPT, qui a attiré l’attention en 2023, semble avoir été essentiellement un vaporware pour criminels, juste du matériel promotionnel et de démonstration, et l’outil WormGPT qui a fait la une des journaux vers la fin de l’année a été mis de côté en quelques jours en raison de l’attention médiatique qu’il a reçue.

Les discussions en ligne sur les forums criminels sur la façon de créer votre propre GPT malveillant sont largement axées sur des trucs et astuces pour tirer parti de l’infrastructure LLM existante (c’est-à-dire LLaMA). Aujourd’hui, le développement d’un modèle de langage large (LLM) criminel spécialement conçu peut être trop important. Cela est coûteux et demande beaucoup de travail pour les mauvais acteurs, par rapport au jailbreak des applications d’IA accessibles au public, qui exploitent les faiblesses de leurs règles ou contraintes pour générer des résultats qui vont à l’encontre des utilisations prévues.

Cela dit, les efforts néfastes de développement de LLM persisteront probablement en 2024, accompagnés de nouveaux outils pour la création de logiciels malveillants et d’autres tâches. À mesure que le vol d’informations augmente, un tout nouveau service cybercriminel, la reconnaissance en tant que service (ReconaaS), est susceptible d’émerger. Certains acteurs malveillants utiliseront l’IA pour extraire des informations personnelles utiles des données volées et les vendre à d’autres cybercriminels pour des attaques ultra-ciblées.

L’IA générative a déjà accéléré la course à la découverte des vulnérabilités des logiciels open source en permettant de comparer le code source de différentes versions de logiciels et de trouver non seulement les vulnérabilités divulguées, mais également celles non divulguées.

Comme indiqué, les criminels ciblent également les applications d’IA elles-mêmes. Les premières tentatives en ce sens impliquaient l’injection d’invites malveillantes dans les systèmes d’IA pour les inciter à se comporter mal, mais celles-ci se sont avérées relativement faciles à combattre en n’entraînant pas les outils d’IA publics sur les entrées des utilisateurs. Plus récemment, les applications de piratage et de jailbreak sont devenues des sujets tendance sur les forums de cybercriminalité, ce qui témoigne d’un grand intérêt criminel. Ces tactiques devraient gagner du terrain en 2024.

Des stratégies de défense évolutives pour faire face aux menaces de la génération IA

Malgré l’intensification de la cybercriminalité grâce à l’IA, les défenseurs peuvent gagner à condition que les organisations soient prêtes à s’adapter. Ce qu’il faut, c’est une combinaison d’approches zéro confiance et l’utilisation de l’IA pour renforcer la sécurité.

Comme son nom l’indique, avec la confiance zéro, la confiance n’est jamais présumée. Les identités doivent toujours être vérifiées, et seules les personnes et machines nécessaires peuvent accéder aux informations ou processus sensibles à des fins définies et à des moments précis. Cela limite la surface d’attaque et ralentit les attaquants.

Appliquée à l’exemple précédent du faux e-mail de bon de commande avec confirmation vocale deepfake, la vérification zéro confiance empêcherait les utilisateurs d’appeler le numéro indiqué dans le message. Au lieu de cela, ils disposeraient d’une liste sécurisée de numéros à appeler et/ou auraient besoin de l’approbation de plusieurs parties prenantes pour vérifier la transaction. Un langage codé pourrait même être utilisé pour une authentification supplémentaire.

Même si les attaques de phishing sont désormais trop bien déguisées pour que les utilisateurs puissent les détecter par eux-mêmes, une formation de sensibilisation à la cybersécurité reste essentielle ; il a juste besoin d’être soutenu par des technologies défensives. L’IA et l’apprentissage automatique peuvent être utilisés pour détecter les sentiments et le ton des messages ou évaluer les pages Web afin d’empêcher les tentatives de fraude qui pourraient échapper aux utilisateurs.

Exploiter l’IA générative pour de bon

L’IA générative peut aider les équipes de cybersécurité à travailler plus rapidement et à être plus productives en fournissant des explications en langage simple des alertes, en décodant les scripts et les commandes, et en permettant des requêtes de recherche précises et efficaces pour les analystes qui ne sont pas spécialisés dans les langages de recherche. Il agit comme un multiplicateur de force en mettant automatiquement en œuvre des playbooks de réponse de sécurité dès qu’un incident se produit.

L’automatisation basée sur l’IA peut également éliminer le fardeau du reporting des incidents, qui est essentiel pour les secteurs réglementés : gestion des tickets et des rapports, traduction des rapports dans plusieurs langues et extraction d’informations exploitables de la documentation à grande vitesse.

La remédiation et la réponse peuvent toutes deux être renforcées lorsque l’IA générative est utilisée pour une hiérarchisation globale des risques et pour produire des recommandations personnalisées en matière de réduction des risques et de réponse aux menaces. Il peut même identifier les applications d’IA avec lesquelles les utilisateurs travaillent, où et comment.

Puisqu’il est irréaliste d’interdire purement et simplement les applications d’IA, les organisations doivent être capables de les gérer. Et pour leur part, les développeurs doivent donner la priorité à la sécurité et à la lutte contre les abus lors de leur création.

Les avantages de l’IA générative se multiplient grâce à une intégration approfondie dans les plateformes de cybersécurité telles que la détection et la réponse étendues (XDR) qui fournissent une télémétrie multi-vecteurs depuis les points finaux jusqu’au cloud.

Enfin, l’IA générative peut contribuer à renforcer les cyberdéfenses proactives en permettant des simulations de violations et d’attaques dynamiques, personnalisées et spécifiques au secteur. Alors que les équipes rouges formalisées n’étaient généralement disponibles que pour les plus grandes organisations aux poches profondes, l’IA générative a le potentiel de démocratiser la pratique en permettant aux organisations de toute taille d’exécuter des playbooks d’événements dynamiques et adaptables s’appuyant sur un large éventail de techniques.

Intégrer l’IA générative à un régime sain en matière de cybersécurité

Les cybercriminels utiliseront l’IA générative à leur avantage autant qu’ils le peuvent. L’année écoulée a montré qu’ils en avaient la volonté, même s’ils n’en avaient pas encore les moyens. Mais l’IA générative, associée à des cadres de sécurité Zero Trust, à des pratiques adaptatives et à des cultures organisationnelles soucieuses de la sécurité, permet également aux organisations de mettre en place une défense solide et proactive.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite