« Audio-Jacking » piloté par l’IA : IBM découvre une nouvelle menace de cybersécurité
Les chercheurs d’IBM Security ont identifié une nouvelle menace de cybersécurité appelée « audio-jacking », où l’IA peut manipuler des conversations en direct avec de fausses voix, soulevant des inquiétudes concernant la fraude financière et la désinformation.
Des chercheurs d’IBM Security ont récemment révélé une menace de cybersécurité unique qu’ils ont surnommée « le détournement audio ». Cette menace utilise l’intelligence artificielle (IA) pour collecter et modifier les conversations en direct en temps réel. Cette méthode utilise l’intelligence artificielle générative pour créer un clone de la voix d’une personne en utilisant seulement trois secondes d’audio. Cela offre aux attaquants la possibilité de remplacer de manière transparente le discours original par des informations qui ont été modifiées. Posséder de telles compétences pourrait permettre d’adopter un comportement immoral, comme orienter des transactions financières dans une mauvaise direction ou modifier les informations prononcées lors d’émissions en direct et de discours politiques.
Étonnamment simple dans sa mise en œuvre, la technique utilise des algorithmes d’intelligence artificielle qui écoutent l’audio en direct à la recherche de certaines phrases. Dans le cas où ces systèmes sont détectés, ils sont capables d’insérer le deepfake audio dans la discussion sans que les participants s’en rendent compte. Il est possible que cela mette en danger des données sensibles ou induise des personnes en erreur. Les utilisations pourraient aller de la criminalité financière à la désinformation dans les communications vitales.
L’équipe IBM a prouvé que la construction d’un tel système n’est pas trop compliquée. L’équipe a montré que le travail requis pour capturer l’audio en direct et l’intégrer aux technologies d’IA générative est supérieur à l’effort requis pour manipuler les données elles-mêmes. Ils ont attiré l’attention sur les abus possibles dans diverses circonstances, notamment en cas de modification de données bancaires lors d’une discussion, ce qui pourrait amener des victimes ignorant la situation à transférer de l’argent sur de faux comptes.
Afin de faire face à ce danger, IBM recommande d’utiliser des contre-mesures telles que la paraphrase et la répétition des informations essentielles lors des discussions afin de vérifier leur authenticité. Cette stratégie a le potentiel de révéler les disparités audio créées par les algorithmes d’intelligence artificielle.
Les résultats de cette étude mettent en évidence la complexité croissante des cybermenaces à l’ère de l’intelligence artificielle puissante et soulignent la nécessité de rester vigilant et de développer des mesures de sécurité créatives afin de lutter contre de telles vulnérabilités.
Source de l’image : Shutterstock