Les escroqueries Deepfake ont volé des millions aux entreprises. Les experts préviennent que la situation pourrait empirer
Visage généré en 3D représentant la technologie de l’intelligence artificielle
Le nuage de mouvement | Istock | Getty Images
Dans l’un des cas les plus importants connus cette année, un employé de la finance de Hong Kong a été trompé et a transféré plus de 25 millions de dollars à des fraudeurs utilisant une technologie de deepfake qui se sont déguisés en collègues lors d’un appel vidéo, ont déclaré les autorités aux médias locaux en février.
La semaine dernière, la société d’ingénierie britannique Arup a confirmé à CNBC qu’elle était la société impliquée dans cette affaire, mais elle n’a pas pu entrer dans les détails de l’affaire en raison de l’enquête en cours.
Ces menaces se sont multipliées en raison de la popularisation du Chat GPT d’Open AI lancé en 2022, qui a rapidement propulsé la technologie d’IA générative dans le grand public, a déclaré David Fairman, directeur de l’information et directeur de la sécurité de l’APAC chez Netskope.
« L’accessibilité publique de ces services a réduit les barrières à l’entrée pour les cybercriminels, qui n’ont plus besoin de compétences technologiques particulières », a déclaré Fairman.
Le volume et la sophistication des escroqueries se sont accrus à mesure que la technologie de l’IA continue d’évoluer, a-t-il ajouté.
Divers services d’IA générative peuvent être utilisés pour générer du contenu textuel, image et vidéo de type humain, et peuvent ainsi agir comme des outils puissants pour les acteurs illicites tentant de manipuler et de recréer numériquement certains individus.
Un porte-parole d’Arup a déclaré à CNBC : « Comme beaucoup d’autres entreprises dans le monde, nos opérations sont régulièrement soumises à des attaques, notamment des fraudes sur les factures, des escroqueries par phishing, l’usurpation de la voix WhatsApp et des deepfakes. »
L’agent financier aurait assisté à l’appel vidéo avec des personnes soupçonnées d’être le directeur financier de l’entreprise et d’autres membres du personnel, qui lui auraient demandé d’effectuer un transfert d’argent. Cependant, le reste des participants présents à cette réunion avaient en réalité été des deepfakes recréés numériquement.
Arup a confirmé que « de fausses voix et images » avaient été utilisées lors de l’incident, ajoutant que « le nombre et la sophistication de ces attaques ont fortement augmenté ces derniers mois ».
Les médias d’État chinois ont rapporté cette année un cas similaire dans la province du Shanxi, impliquant une employée financière, qui a été amenée à transférer 1,86 million de yuans (262 000 dollars) sur le compte d’un fraudeur après un appel vidéo avec un deepfake de son patron.
En plus des attaques directes, les entreprises s’inquiètent de plus en plus des autres façons dont les photos, vidéos ou discours de leurs supérieurs pourraient être utilisés de manière malveillante, selon les experts en cybersécurité.
Selon Jason Hogg, expert en cybersécurité et cadre en résidence chez Great Hill Partners, les deepfakes de membres de haut rang de l’entreprise peuvent être utilisés pour diffuser de fausses nouvelles afin de manipuler les cours des actions, diffamer la marque et les ventes d’une entreprise et diffuser d’autres désinformations nuisibles.
« Cela ne fait qu’effleurer la surface », a déclaré Hogg, qui était auparavant agent spécial du FBI.
Il a souligné que l’IA générative est capable de créer des deepfakes basés sur une mine d’informations numériques telles que du contenu accessible au public hébergé sur les réseaux sociaux et d’autres plateformes médiatiques.
En 2022, Patrick Hillmann, directeur des communications chez Binance, a affirmé dans un article de blog que des escrocs avaient fait de lui un deepfake sur la base d’entretiens d’information et d’apparitions télévisées précédents, l’utilisant pour tromper les clients et les contacts lors de réunions.
Fairman de Netskope a déclaré que de tels risques avaient conduit certains dirigeants à commencer à supprimer ou à limiter leur présence en ligne, de peur qu’elle ne soit utilisée comme munition par des cybercriminels.
La technologie Deepfake s’est déjà répandue en dehors du monde de l’entreprise.
Des fausses images pornographiques aux vidéos manipulées faisant la promotion d’ustensiles de cuisine, des célébrités comme Taylor Swift ont été victimes de la technologie deepfake. Les deepfakes de politiciens sont également monnaie courante.
Pendant ce temps, certains escrocs ont falsifié les membres de la famille et les amis de certaines personnes pour tenter de leur soutirer de l’argent.
Selon Hogg, les problèmes plus larges vont s’accélérer et s’aggraver pendant un certain temps, car la prévention de la cybercriminalité nécessite une analyse réfléchie afin de développer des systèmes, des pratiques et des contrôles pour se défendre contre les nouvelles technologies.
Cependant, les experts en cybersécurité ont déclaré à CNBC que les entreprises peuvent renforcer leurs défenses contre les menaces alimentées par l’IA grâce à une meilleure formation du personnel, à des tests de cybersécurité et à l’exigence de mots de code et de plusieurs niveaux d’approbation pour toutes les transactions, ce qui aurait pu empêcher des cas comme celui d’Arup.
Clarification : cette histoire a été mise à jour pour refléter fidèlement le titre de David Fairman chez Netskope.