Des fraudeurs ont cloné la voix des directeurs d’entreprise dans un braquage de banque de 35 millions de dollars, la police a découvert

Le clonage vocal de l’IA est utilisé dans un énorme cambriolage faisant l’objet d’une enquête par les enquêteurs de Dubaï, au milieu des avertissements concernant l’utilisation cybercriminelle de la nouvelle technologie.


 

Début 2020, un directeur de banque à Hong Kong a reçu un appel d’un homme dont il a reconnu la voix, directeur d’une entreprise avec qui il avait déjà parlé. Le directeur avait une bonne nouvelle : sa société était sur le point de faire une acquisition, il avait donc besoin que la banque autorise des virements à hauteur de 35 millions de dollars. Un avocat nommé Martin Zelner avait été embauché pour coordonner les procédures et le directeur de la banque pouvait voir dans sa boîte de réception les e-mails du directeur et de Zelner, confirmant l’argent nécessaire pour déménager où. Le directeur de la banque, estimant que tout semblait légitime, a commencé à effectuer les virements.

Ce qu’il ne savait pas, c’est qu’il avait été dupé dans le cadre d’une escroquerie élaborée, dans laquelle des fraudeurs avaient utilisé la technologie de la voix profonde pour cloner le discours du réalisateur, selon un document judiciaire découvert par Forbes dans lequel les Émirats arabes unis ont demandé l’aide d’enquêteurs américains pour retrouver 400 000 $ de fonds volés qui ont été déposés sur des comptes américains détenus par la Centennial Bank. Les Émirats arabes unis, qui enquêtent sur le casse car il affectait des entités du pays, pensent qu’il s’agissait d’un stratagème élaboré, impliquant au moins 17 personnes, qui a envoyé l’argent volé sur des comptes bancaires à travers le monde.

Peu plus de détails ont été donnés dans le document, aucun des noms des victimes n’ayant été fourni. Le parquet de Dubaï, qui dirige l’enquête, n’avait pas répondu aux demandes de commentaires au moment de la publication. Martin Zelner, un avocat basé aux États-Unis, avait également été contacté pour commentaires, mais n’avait pas répondu au moment de la publication.

C’est le seul cas connu de fraudeurs qui auraient utilisé des outils de modelage de la voix pour effectuer un casse, mais il semble avoir eu beaucoup plus de succès que le premier, dans lequel les fraudeurs ont utilisé la technologie pour se faire passer pour le PDG d’une entreprise énergétique basée au Royaume-Uni à une tentative de vol de 240 000 $ en 2019, selon le le journal Wall Street.

Le cas des Émirats arabes unis montre à quel point de telles escroqueries de haute technologie peuvent être dévastatrices et atterrit au milieu des avertissements concernant l’utilisation de l’IA pour créer des images et des voix prétendument fausses et profondes dans la cybercriminalité.

Les contrefaçons sonores et visuelles représentent le développement fascinant de la technologie du 21e siècle, mais elles sont également potentiellement incroyablement dangereuses et constituent une énorme menace pour les données, l’argent et les entreprises, déclare Jake Moore, ancien officier de police du département de police de Dorset au Royaume-Uni et maintenant un expert en cybersécurité au sein de la société de sécurité ESET. Nous sommes actuellement sur le point de voir des acteurs malveillants transférer leur expertise et leurs ressources vers l’utilisation des dernières technologies pour manipuler des personnes qui ignorent innocemment les domaines de la technologie deep fake et même leur existence.

 

Manipulation audio, qui est plus facile à orchestrer que de faire de fausses vidéos profondes, ne fera qu’augmenter en volume et sans l’éducation et la sensibilisation à ce nouveau type de vecteur d’attaque, ainsi que de meilleures méthodes d’authentification, davantage d’entreprises sont susceptibles d’être victimes de très conversations convaincantes.

Autrefois une technologie confinée au domaine des cabrioles fictives comme Mission impossible, le clonage vocal est désormais largement disponible. Diverses startups technologiques travaillent sur des technologies vocales d’IA de plus en plus sophistiquées, de Londons Aflorithmic à Ukraines Respeecher et Canadas Resemble.AI. La technologie a fait sensation ces derniers mois avec la révélation que feu Anthony Bourdain avait fait synthétiser sa voix pour un documentaire sur sa vie. Pendant ce temps, reconnaissant le potentiel d’utilisation malveillante de l’IA, une poignée d’entreprises, comme la société de sécurité Pindrop, évaluée à 900 millions de dollars, prétendent désormais pouvoir détecter les voix synthétisées et ainsi prévenir les fraudes.

Si des enregistrements de vous parlant sont disponibles en ligne, que ce soit sur les réseaux sociaux, YouTube ou sur un site Web d’employeurs, il se peut bien qu’une bataille secrète se déroule pour le contrôle de votre voix à votre insu.

METTRE À JOUR: Après la publication, le ministère des Affaires étrangères et de la Coopération internationale des Émirats arabes unis a contacté Forbes pour noter que la banque touchée se trouvait à Hong Kong, et non aux Émirats arabes unis, bien que les enquêteurs de Dubaï dirigeaient l’enquête. L’article a été mis à jour le 22 octobre 2022 pour refléter cela.

Dans une déclaration, SE Hamid Al Zaabi, directeur général du Bureau exécutif de la lutte contre le blanchiment d’argent et le financement du terrorisme des Émirats arabes unis, a ajouté : Même en cas d’incidents se produisant en dehors des Émirats arabes unis, nous travaillerons en étroite collaboration avec les détecter les individus qui se livrent sciemment à des pratiques trompeuses telles que la fraude par imposteur. Les Émirats arabes unis poursuivront ensuite dans toute la mesure du possible ces individus, en veillant à ce qu’ils soient tenus responsables et traduits en justice rapidement.

.

 

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite