La course à la cybersécurité pour démasquer la nouvelle vague de deepfakes d’IA
CONFÉRENCE RSA 2024 à San Francisco Tout le monde parle de deepfakes, mais la majorité des médias synthétiques générés par l’IA qui circulent aujourd’hui sembleront désuets par rapport à la sophistication et au volume de ce qui est sur le point de se produire.
Kévin Mandia, PDG de Mandiant chez Google Cloud, affirme qu’il faudra probablement quelques mois avant que la prochaine génération de faux audio et vidéo plus réalistes et plus convaincants ne soit produite en masse avec la technologie de l’IA. « Je ne pense pas que ce soit [deepfake content] « C’est déjà assez bon », a déclaré Mandia ici dans une interview avec Dark Reading. « Nous sommes juste avant la tempête des médias synthétiques qui frappe, où il s’agit vraiment d’une manipulation massive du cœur et de l’esprit des gens. »
L’année électorale est bien entendu un facteur dans boom attendu dans les deepfakes. La bonne nouvelle est qu’à ce jour, la plupart des deepfakes audio et vidéo ont été assez simples à repérer, soit par les outils de détection existants, soit par des humains avertis. Pindrop, fournisseur de sécurité d’identité vocale, affirme qu’il peut identifier et arrêter la plupart des faux clips audio, et de nombreux outils de création d’images IA échouent tristement à rendre des mains humaines réalistes, certaines générant des mains à neuf doigts, par exemple un cadeau mort d’une fausse image.
Les outils de sécurité qui détectent les médias synthétiques font tout juste leur apparition dans l’industrie, notamment celui de Reality Defender, une startup qui détecte les médias générés par l’IA, surnommée la Startup la plus innovante de 2024 ici cette semaine dans le cadre du concours Innovation Sandbox de la RSA Conference.

Source: Mandiant/Google Cloud
Mandia, qui dit investir dans une start-up travaillant sur la détection de fraude dans le contenu généré par l’IA appelée Real Factors, affirme que le principal moyen d’empêcher les deepfakes de tromper les utilisateurs et d’éclipser le contenu réel est que les créateurs de contenu intègrent des « filigranes ». Les clients Microsoft Teams et Google Meet, par exemple, seraient filigranés, dit-il, avec des métadonnées immuables, des fichiers signés et des certificats numériques.
« Vous allez assister à une énorme augmentation de ce phénomène, à un moment où l’accent est mis sur la vie privée », note-t-il également. « L’identité va s’améliorer et la provenance des sources sera bien meilleure », dit-il, pour garantir l’authenticité à chaque extrémité.
« Je pense que ce filigrane pourrait refléter les politiques et les profils de risque de chaque entreprise qui crée du contenu », explique Mandia.
Mandia prévient que la prochaine vague d’audio et de vidéo générés par l’IA sera particulièrement difficile à détecter comme étant fausse. « Et si vous aviez une vidéo de 10 minutes et que deux millisecondes étaient fausses ? Existera-t-il un jour une technologie si efficace pour dire : « C’est faux » ? Nous allons avoir la fameuse course aux armements, et la défense perdra. dans une course aux armements. »
Faire payer les cybercriminels
Dans l’ensemble, les cyberattaques sont devenues plus coûteuses financièrement et en termes de réputation pour les organisations victimes, explique Mandia. Il est donc temps d’inverser l’équation et de la rendre plus risquée pour les acteurs de la menace eux-mêmes en redoublant d’efforts pour partager des informations d’attribution et nommer des noms.
« Nous sommes en fait devenus bons en matière de renseignement sur les menaces. Mais nous ne sommes pas bons dans l’attribution des renseignements sur les menaces », dit-il. Le modèle consistant à imposer continuellement aux organisations la charge de renforcer leurs défenses ne fonctionne pas. « Nous imposons des coûts du mauvais côté du tuyau », dit-il.
Mandia estime qu’il est temps de revoir les traités avec les sphères de sécurité des cybercriminels et de redoubler d’efforts pour interpeller les individus derrière le clavier et partager les données d’attribution lors des attaques. Prendre des sanctions et nommer le leader du groupe prolifique Groupe de rançongiciels LockBit par les forces de l’ordre internationales cette semaine, dit-il. Des responsables australiens, européens et américains se sont associés et ont imposé des sanctions contre le ressortissant russe Dmitry Yuryevich, 31 ans, de Voronej, en Russie, pour son rôle présumé de chef de file de l’organisation de cybercriminalité. Ils ont offert une récompense de 10 millions de dollars pour toute information sur lui et ont publié sa photo, une décision que Mandia salue comme étant la bonne stratégie pour accroître le risque pour les méchants.
« Je pense que c’est important. Si vous êtes un criminel et que tout d’un coup le monde entier a votre photo, c’est un problème pour vous. C’est un moyen de dissuasion, et bien plus dissuasif que « d’augmenter le prix » pour un agresseur », Mandia affirme.
Les forces de l’ordre, les gouvernements et le secteur privé doivent revoir la manière de commencer à identifier efficacement les cybercriminels, dit-il, soulignant que le grand défi du démasquage réside dans les lois sur la vie privée et la liberté civile dans différents pays. « Nous devons commencer à résoudre ce problème sans affecter les libertés civiles », dit-il.