Pouvez-vous repérer le deepfake de la vraie personne ?
- Deepfake AI pourrait « saper » la sécurité nationale, selon le Dr Tim Stevens
- Pouvez-vous faire la différence entre la vraie chose et une image deepfake AI ?
- Ces 15 signes révélateurs pourraient vous aider à identifier un «franken-fraudeur» potentiel
Deepfake AI a le potentiel de porter atteinte à la sécurité nationale, a averti un expert en cybersécurité.
Le Dr Tim Stevens, directeur du groupe de recherche sur la cybersécurité au King’s College de Londres, a déclaré que l’IA profonde – qui peut créer des images et des vidéos hyperréalistes de personnes – avait le potentiel de saper les institutions démocratiques et la sécurité nationale.
Le Dr Stevens a déclaré que la disponibilité généralisée de ces outils pourrait être exploitée par des États comme la Russie pour « troller » les populations cibles dans le but d’atteindre les objectifs de politique étrangère et de « saper » la sécurité nationale des pays.
Il a ajouté: «Le potentiel est là pour que les IA et les deepfakes affectent la sécurité nationale.
«Pas au niveau élevé de la défense et de la guerre interétatique, mais dans l’affaiblissement général de la confiance dans les institutions démocratiques et les médias.
« Ils pourraient être exploités par des autocraties comme la Russie pour diminuer le niveau de confiance dans ces institutions et organisations. »
Ici, MailOnline a mis en place un test de deepfake ainsi que tout ce que vous devez savoir sur les deepfakes. Que sont-ils? Comment travaillent-ils? Quels risques présentent-ils ? Pouvez-vous faire la différence entre la réalité et l’IA ?
Qu’est-ce qu’un deepfake et comment est-il fabriqué ?
Si vous avez vu Tom Cruise jouer de la guitare sur TikTok, Barack Obama traiter Donald Trump de « merde totale et complète », ou Mark Zuckerberg se vanter d’avoir le contrôle de « milliards de données volées », vous avez probablement déjà vu un deepfake.
Un « deepfake » est une forme d’intelligence artificielle qui utilise « l’apprentissage en profondeur » pour manipuler l’audio, les images et la vidéo, créant ainsi un contenu multimédia hyperréaliste.
Le terme « deepfake » a été inventé en 2017 lorsqu’un utilisateur de Reddit a publié des vidéos porno manipulées sur le forum. Les vidéos ont échangé les visages de célébrités comme Gal Gadot, Taylor Swift et Scarlett Johansson, sur des stars du porno.
Un deepfake utilise un sous-ensemble d’intelligence artificielle (IA) appelé apprentissage en profondeur pour construire les médias manipulés. La méthode la plus courante utilise des « réseaux de neurones profonds », des « algorithmes d’encodeur », une vidéo de base où vous souhaitez insérer le visage de quelqu’un d’autre et une collection de vidéos de votre cible.
L’IA d’apprentissage en profondeur étudie les données dans diverses conditions et trouve des caractéristiques communes entre les deux sujets avant de cartographier les cibles face à la personne dans la vidéo de base.
Les réseaux antagonistes génératifs (GAN) sont un autre moyen de créer des deepfakes. Les GAN utilisent deux algorithmes d’apprentissage automatique (ML) à double rôle. Le premier algorithme crée des contrefaçons et le second les détecte. Le processus se termine lorsque le deuxième modèle ML ne trouve pas d’incohérences.
La précision des GAN dépend du volume de données. C’est pourquoi vous voyez tant de contrefaçons profondes de politiciens, de célébrités et de stars de cinéma pour adultes, car il y a souvent beaucoup de médias de ces personnes disponibles pour former l’algorithme d’apprentissage automatique.
Succès et échecs des deepfakes
Un exemple notoire de deepfake ou « cheapfake » était une imitation grossière de Volodymyr Zelensky semblant se rendre à la Russie dans une vidéo largement diffusée sur les réseaux sociaux russes l’année dernière.
Le clip montre le président ukrainien parlant depuis son pupitre alors qu’il appelle ses troupes à déposer les armes et à acquiescer aux forces d’invasion de Poutine.
Les internautes avertis ont immédiatement signalé les écarts entre la couleur du cou et du visage de Zelensky, l’étrange accent et la pixellisation autour de sa tête.
Mounir Ibrahim, qui travaille pour Truepic, une entreprise qui déracine les deepfakes en ligne, a déclaré au Daily Beast : « Le fait que ce soit si mal fait est un peu un casse-tête. »
« Vous pouvez clairement voir la différence, ce n’est pas le meilleur deepfake que nous ayons vu, même pas proche. »
L’un des deepfakes les plus convaincants sur les réseaux sociaux en ce moment est le compte TikTokparody ‘deeptomcruise’.
Le compte a été créé en février 2021 et compte plus de 18,1 millions de likes et cinq millions de followers.
Il publie des versions parodiques hyper réalistes de la star hollywoodienne faisant des tours de magie, jouant au golf, se remémorant la fois où il a rencontré l’ancien président de l’Union soviétique et posant avec le mannequin Paris Hilton.
Dans un clip, on peut voir Cruise câliner Paris Hilton alors qu’ils prétendent être un couple.
Il dit au mannequin « Tu es absolument magnifique », ce à quoi Hilton rougit et le remercie.
En se regardant dans le miroir, Hilton dit à l’acteur : « Tu as l’air très intelligent, M. Cruise ».
Une autre vidéo partagée sur le compte montre deepfake Cruise portant une chemise hawaïenne festive à genoux devant la caméra.
Il montre une pièce de monnaie et dans un cas la fait disparaître – comme par magie.
« Je veux vous montrer un peu de magie », dit l’imposteur en tenant la pièce.
Les deepfakes représentent-ils une menace ?
Malgré la valeur de divertissement des deepfakes, certains experts ont mis en garde contre les dangers qu’ils pourraient représenter.
Le directeur du groupe de recherche sur la cybersécurité du King’s College de Londres, le Dr Tim Stevens, a mis en garde contre le potentiel d’utilisation des deepfakes pour diffuser de fausses nouvelles et porter atteinte à la sécurité nationale.
Le Dr Stevens a déclaré que la technologie pourrait être exploitée par des autocraties comme la Russie pour saper les démocraties, ainsi que pour renforcer la légitimité des objectifs de politique étrangère comme la guerre.
Il a dit que le deepfake de Zelensky était « très inquiétant » parce qu’il y avait des gens qui « y croyaient » comme il y a des gens qui « veulent y croire ».
Theresa Payton, PDG de la société de cybersécurité Fortalice, a déclaré que la deepfake AI avait également le potentiel de combiner des données réelles pour créer des «fraudes franken» qui pourraient infiltrer les entreprises et voler des informations.
Elle a déclaré que «l’ère du travail à distance accru» était l’environnement idéal pour que ces types de «personnes IA» s’épanouissent.
Mlle Payton a déclaré au Sun: «Alors que les entreprises automatisent leurs processus de numérisation de CV et mènent des entretiens à distance, les fraudeurs et les escrocs tireront parti de la technologie de pointe de l’IA profonde pour créer des travailleurs« clones »sauvegardés avec des identités synthétiques.
« La promenade numérique dans l’identité d’une personne physique sera presque impossible à dissuader, détecter et récupérer. »
Le Dr Stevens a ajouté : Quel type de société voulons-nous ? À quoi voulons-nous que l’utilisation de l’IA ressemble ? Parce qu’en ce moment, les freins sont éteints et se dirigent vers un espace assez désordonné.
Si ça a l’air mauvais maintenant, ça va être pire à l’avenir. Nous avons besoin d’une conversation sur ce que sont ces outils et à quoi ils pourraient servir, ainsi que sur ce à quoi ressemblera notre société pour le reste du 21e siècle.
Cela ne va pas loin. Ce sont des outils très puissants et ils peuvent être utilisés pour le meilleur ou pour le pire.
Les réponses : les vraies personnes sont mises en avant