L’IA aide les pirates à créer de meilleurs e-mails de phishing

  • Les cybercriminels et autres acteurs malveillants peuvent faire les choses plus rapidement et plus facilement grâce à l’intelligence artificielle, ce qui rend plus difficile pour les RSSI et autres experts en cybersécurité de protéger leurs organisations.
  • L’une des choses les plus efficaces que les organisations puissent faire pour mieux se défendre contre les attaques assistées par l’IA est de déployer des outils et des services qui tirent parti de l’IA.
  • Mettez à jour les programmes de formation des employés afin qu’ils apprennent à reconnaître les campagnes de phishing basées sur l’IA.

Yuichiro Chino | moment | Getty Images

Les responsables de l’informatique et de la sécurité sont préoccupés par l’impact de l’intelligence artificielle sur la cybersécurité et à juste titre. Les cybercriminels et autres acteurs malveillants peuvent faire les choses plus rapidement et plus facilement avec l’IA, ce qui rend plus difficile pour les RSSI et autres experts en cybersécurité de protéger leurs organisations.

L’une des principales façons dont les cybercriminels exploitent l’IA est d’augmenter l’efficacité des e-mails de phishing et d’autres attaques d’ingénierie sociale, a déclaré Brian Finch, co-responsable de la pratique de la cybersécurité, de la protection des données et de la confidentialité au sein du cabinet d’avocats Pillsbury Winthrop Shaw Pittman.

« Historiquement, les e-mails de phishing ont été assez faciles à repérer grâce à une rédaction bâclée », a déclaré Finch. « En particulier, les e-mails de phishing créés par un pirate informatique ne connaissant pas une certaine langue [have] avaient tendance à être faciles à repérer en raison d’une mauvaise grammaire, d’un vocabulaire illogique et d’une mauvaise orthographe. » De telles erreurs flagrantes étaient faciles à détecter par des défenses automatisées ainsi que par des personnes raisonnablement prudentes, a-t-il ajouté.

Mais l’IA permet à beaucoup plus de personnes, quelles que soient leurs compétences linguistiques, de générer rapidement et à moindre coût un texte convaincant à utiliser dans les e-mails de phishing, a déclaré Finch. Avec les outils d’intelligence artificielle, il est désormais beaucoup plus probable qu’un e-mail de phishing semble authentique, ce qui conduit davantage de victimes potentielles à cliquer sur des liens malveillants.

Voici trois étapes que les responsables de la cybersécurité peuvent suivre pour renforcer les programmes de cybersécurité de leurs organisations à l’ère de l’IA.

L’une des choses les plus efficaces que les organisations puissent faire pour mieux se défendre contre les dernières attaques assistées par l’IA est de déployer des outils et des services qui tirent parti de l’IA. Cela signifie se tenir au courant des dernières offres technologiques et embaucher des personnes possédant les compétences en IA nécessaires pour utiliser ces produits ou recycler le personnel existant afin qu’il puisse les utiliser efficacement.

« Les technologies avancées telles que les algorithmes d’apprentissage automatique, la détection des anomalies et la surveillance en temps réel peuvent jouer un rôle central dans l’identification et la réponse aux failles de sécurité potentielles ou aux activités malveillantes », a déclaré Kyle Kappel, responsable américain du cyber chez KPMG. « En tirant parti de ces outils, les organisations peuvent améliorer leur capacité à détecter, prévenir et répondre efficacement aux événements de sécurité. »

Les dirigeants doivent hiérarchiser l’allocation du leadership et des ressources pour s’assurer que leur programme de sécurité de l’IA reste à jour et proactif face à l’évolution des menaces, a déclaré Kappel. Cela signifie nommer des personnes ayant une expertise dans la sécurité de l’IA à des postes de direction et leur donner les outils et l’autorité nécessaires pour rester au courant des derniers développements dans le domaine, a-t-il déclaré.

En ayant un personnel dédié à la supervision de la sécurité de l’IA, les organisations peuvent évaluer efficacement les risques posés par les menaces émergentes et concevoir des contre-mesures appropriées, a déclaré Kappel.

Si une organisation utilise des méthodes plus anciennes de formation des employés, y compris la suite C, sur la façon d’éviter d’être la proie d’attaquants, elle pourrait être plus susceptible de subir une violation de données ou un autre incident de sécurité. Les programmes de formation doivent être mis à jour tout comme les outils doivent être améliorés dans ce nouvel environnement de sécurité.

« L’IA est si nouvelle que la plupart des gens, y compris les dirigeants d’entreprise, ne comprennent pas vraiment comment elle peut être utilisée à des fins malveillantes », a déclaré Finch. « Les chefs d’entreprise doivent se renseigner eux-mêmes et informer leurs employés sur les utilisations négatives émergentes de l’IA. »

Par exemple, les employés doivent savoir ce qu’il faut rechercher dans les e-mails de phishing générés par l’IA, étant donné que les cybercriminels utilisent l’IA pour faire apparaître les messages comme authentiques. La formation doit être continue, car les menaces évoluent constamment.

Enfin, déployer de nouveaux outils et programmes de formation est une bonne chose, mais compte tenu de la gravité des dernières menaces basées sur le renseignement, les organisations doivent créer des stratégies pour renforcer la sécurité dans l’ensemble de l’entreprise et s’assurer que les politiques sont appliquées. Cet effort doit être dirigé par les RSSI et fortement soutenu par les autres membres de la suite C.

« Les dirigeants devraient adopter un cadre complet qui guide la mise en œuvre de contrôles appropriés pour l’utilisation de l’IA dans toute l’entreprise et au sein de diverses fonctions commerciales », a déclaré Kappel. Cela inclut les interactions avec des entités tierces. Le cadre devrait inclure des indicateurs de risque, l’écosystème de l’IA et les réglementations, et devrait « aborder les considérations de sécurité uniques associées à l’IA au sein de leurs organisations et réduire leur risque de sécurité lié à l’IA », a-t-il déclaré.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite