Pouvez-vous repérer le deepfake de la vraie personne ?

  • Deepfake AI pourrait « saper » la sécurité nationale, selon le Dr Tim Stevens
  • Pouvez-vous faire la différence entre la vraie chose et une image deepfake AI ?
  • Ces 15 signes révélateurs pourraient vous aider à identifier un «franken-fraudeur» potentiel



Deepfake AI a le potentiel de porter atteinte à la sécurité nationale, a averti un expert en cybersécurité.

Le Dr Tim Stevens, directeur du groupe de recherche sur la cybersécurité au King’s College de Londres, a déclaré que l’IA profonde – qui peut créer des images et des vidéos hyperréalistes de personnes – avait le potentiel de saper les institutions démocratiques et la sécurité nationale.

Le Dr Stevens a déclaré que la disponibilité généralisée de ces outils pourrait être exploitée par des États comme la Russie pour « troller » les populations cibles dans le but d’atteindre les objectifs de politique étrangère et de « saper » la sécurité nationale des pays.

Il a ajouté: «Le potentiel est là pour que les IA et les deepfakes affectent la sécurité nationale.

«Pas au niveau élevé de la défense et de la guerre interétatique, mais dans l’affaiblissement général de la confiance dans les institutions démocratiques et les médias.

« Ils pourraient être exploités par des autocraties comme la Russie pour diminuer le niveau de confiance dans ces institutions et organisations. »

Ici, MailOnline a mis en place un test de deepfake ainsi que tout ce que vous devez savoir sur les deepfakes. Que sont-ils? Comment travaillent-ils? Quels risques présentent-ils ? Pouvez-vous faire la différence entre la réalité et l’IA ?

Qu’est-ce qu’un deepfake et comment est-il fabriqué ?

Si vous avez vu Tom Cruise jouer de la guitare sur TikTok, Barack Obama traiter Donald Trump de « merde totale et complète », ou Mark Zuckerberg se vanter d’avoir le contrôle de « milliards de données volées », vous avez probablement déjà vu un deepfake.

Un « deepfake » est une forme d’intelligence artificielle qui utilise « l’apprentissage en profondeur » pour manipuler l’audio, les images et la vidéo, créant ainsi un contenu multimédia hyperréaliste.

Le terme « deepfake » a été inventé en 2017 lorsqu’un utilisateur de Reddit a publié des vidéos porno manipulées sur le forum. Les vidéos ont échangé les visages de célébrités comme Gal Gadot, Taylor Swift et Scarlett Johansson, sur des stars du porno.

Un deepfake utilise un sous-ensemble d’intelligence artificielle (IA) appelé apprentissage en profondeur pour construire les médias manipulés. La méthode la plus courante utilise des « réseaux de neurones profonds », des « algorithmes d’encodeur », une vidéo de base où vous souhaitez insérer le visage de quelqu’un d’autre et une collection de vidéos de votre cible.

L’IA d’apprentissage en profondeur étudie les données dans diverses conditions et trouve des caractéristiques communes entre les deux sujets avant de cartographier les cibles face à la personne dans la vidéo de base.

Les réseaux antagonistes génératifs (GAN) sont un autre moyen de créer des deepfakes. Les GAN utilisent deux algorithmes d’apprentissage automatique (ML) à double rôle. Le premier algorithme crée des contrefaçons et le second les détecte. Le processus se termine lorsque le deuxième modèle ML ne trouve pas d’incohérences.

La précision des GAN dépend du volume de données. C’est pourquoi vous voyez tant de contrefaçons profondes de politiciens, de célébrités et de stars de cinéma pour adultes, car il y a souvent beaucoup de médias de ces personnes disponibles pour former l’algorithme d’apprentissage automatique.

Succès et échecs des deepfakes

Un exemple notoire de deepfake ou « cheapfake » était une imitation grossière de Volodymyr Zelensky semblant se rendre à la Russie dans une vidéo largement diffusée sur les réseaux sociaux russes l’année dernière.

Le clip montre le président ukrainien parlant depuis son pupitre alors qu’il appelle ses troupes à déposer les armes et à acquiescer aux forces d’invasion de Poutine.

Les internautes avertis ont immédiatement signalé les écarts entre la couleur du cou et du visage de Zelensky, l’étrange accent et la pixellisation autour de sa tête.

Mounir Ibrahim, qui travaille pour Truepic, une entreprise qui déracine les deepfakes en ligne, a déclaré au Daily Beast : « Le fait que ce soit si mal fait est un peu un casse-tête. »

« Vous pouvez clairement voir la différence, ce n’est pas le meilleur deepfake que nous ayons vu, même pas proche. »

L’un des deepfakes les plus convaincants sur les réseaux sociaux en ce moment est le compte TikTokparody ‘deeptomcruise’.

Le compte a été créé en février 2021 et compte plus de 18,1 millions de likes et cinq millions de followers.

Il publie des versions parodiques hyper réalistes de la star hollywoodienne faisant des tours de magie, jouant au golf, se remémorant la fois où il a rencontré l’ancien président de l’Union soviétique et posant avec le mannequin Paris Hilton.

Dans un clip, on peut voir Cruise câliner Paris Hilton alors qu’ils prétendent être un couple.

Il dit au mannequin « Tu es absolument magnifique », ce à quoi Hilton rougit et le remercie.

En se regardant dans le miroir, Hilton dit à l’acteur : « Tu as l’air très intelligent, M. Cruise ».

Une autre vidéo partagée sur le compte montre deepfake Cruise portant une chemise hawaïenne festive à genoux devant la caméra.

Il montre une pièce de monnaie et dans un cas la fait disparaître – comme par magie.

« Je veux vous montrer un peu de magie », dit l’imposteur en tenant la pièce.

Une vidéo partagée sur le compte montre deepfake Cruise portant une chemise hawaïenne festive à genoux devant la caméra. Il montre une pièce de monnaie et dans un cas la fait disparaître
Il montre une pièce de monnaie et dans un cas la fait disparaître – comme par magie. « Je veux vous montrer un peu de magie », dit l’imposteur en tenant la pièce. « C’est la vraie chose, je veux dire que tout est réel », dit « Cruise » en agitant sa main sur son visage

Les deepfakes représentent-ils une menace ?

Malgré la valeur de divertissement des deepfakes, certains experts ont mis en garde contre les dangers qu’ils pourraient représenter.

Le directeur du groupe de recherche sur la cybersécurité du King’s College de Londres, le Dr Tim Stevens, a mis en garde contre le potentiel d’utilisation des deepfakes pour diffuser de fausses nouvelles et porter atteinte à la sécurité nationale.

Le Dr Stevens a déclaré que la technologie pourrait être exploitée par des autocraties comme la Russie pour saper les démocraties, ainsi que pour renforcer la légitimité des objectifs de politique étrangère comme la guerre.

Il a dit que le deepfake de Zelensky était « très inquiétant » parce qu’il y avait des gens qui « y croyaient » comme il y a des gens qui « veulent y croire ».

Theresa Payton, PDG de la société de cybersécurité Fortalice, a déclaré que la deepfake AI avait également le potentiel de combiner des données réelles pour créer des «fraudes franken» qui pourraient infiltrer les entreprises et voler des informations.

Elle a déclaré que «l’ère du travail à distance accru» était l’environnement idéal pour que ces types de «personnes IA» s’épanouissent.

Mlle Payton a déclaré au Sun: «Alors que les entreprises automatisent leurs processus de numérisation de CV et mènent des entretiens à distance, les fraudeurs et les escrocs tireront parti de la technologie de pointe de l’IA profonde pour créer des travailleurs« clones »sauvegardés avec des identités synthétiques.

« La promenade numérique dans l’identité d’une personne physique sera presque impossible à dissuader, détecter et récupérer. »

Le Dr Stevens a ajouté : Quel type de société voulons-nous ? À quoi voulons-nous que l’utilisation de l’IA ressemble ? Parce qu’en ce moment, les freins sont éteints et se dirigent vers un espace assez désordonné.

Si ça a l’air mauvais maintenant, ça va être pire à l’avenir. Nous avons besoin d’une conversation sur ce que sont ces outils et à quoi ils pourraient servir, ainsi que sur ce à quoi ressemblera notre société pour le reste du 21e siècle.

Cela ne va pas loin. Ce sont des outils très puissants et ils peuvent être utilisés pour le meilleur ou pour le pire.

Comment repérer un deepfake

1. Mouvement oculaire non naturel. Les mouvements oculaires qui ne semblent pas naturels ou un manque de mouvement oculaire, comme une absence de clignement des yeux, sont d’énormes drapeaux rouges. Il est difficile de reproduire l’acte de cligner des yeux d’une manière qui semble naturelle. Il est également difficile de reproduire les mouvements oculaires d’une personne réelle. C’est parce que les yeux de quelqu’un suivent généralement la personne à qui ils parlent.

2. Expressions faciales non naturelles. Lorsque quelque chose ne va pas sur un visage, cela peut signaler un morphing facial. Cela se produit lorsqu’une image a été cousue sur une autre.

3. Positionnement maladroit des traits du visage. Si le visage de quelqu’un pointe dans une direction et que son nez pointe dans une autre direction, vous devez être sceptique quant à l’authenticité de la vidéo.

4. Un manque d’émotion. Vous pouvez également repérer ce que l’on appelle le morphing facial ou les points d’image si le visage de quelqu’un ne semble pas montrer l’émotion qui devrait accompagner ce qu’il est censé dire.

5. Corps ou posture bizarre. Un autre signe est si la forme du corps d’une personne ne semble pas naturelle, ou s’il y a un positionnement maladroit ou incohérent de la tête et du corps. C’est peut-être l’une des incohérences les plus faciles à repérer, car la technologie deepfake se concentre généralement sur les traits du visage plutôt que sur l’ensemble du corps.

6. Mouvement corporel ou forme anormale du corps. Si quelqu’un a l’air déformé ou éteint lorsqu’il se tourne sur le côté ou bouge la tête, ou si ses mouvements sont saccadés et décousus d’une image à l’autre, vous devez suspecter que la vidéo est fausse.

7. Coloration non naturelle. Un teint de peau anormal, une décoloration, un éclairage étrange et des ombres mal placées sont tous des signes que ce que vous voyez est probablement faux.

8. Des cheveux qui ne semblent pas réels. Vous ne verrez pas les cheveux crépus ou rebelles. Pourquoi? Les fausses images ne pourront pas générer ces caractéristiques individuelles.

9. Des dents qui ne semblent pas réelles. Les algorithmes peuvent ne pas être en mesure de générer des dents individuelles, donc une absence de contours de dents individuelles pourrait être un indice.

10. Flou ou désalignement. Si les bords des images sont flous ou si les visuels sont mal alignés, par exemple, là où le visage et le cou de quelqu’un rencontrent son corps, vous saurez que quelque chose ne va pas.

11. Bruit ou audio incohérent. Les créateurs de Deepfake passent généralement plus de temps sur les images vidéo que sur l’audio. Le résultat peut être une mauvaise synchronisation labiale, des voix robotiques, une prononciation de mots étrange, un bruit de fond numérique ou même l’absence de son.

12. Images qui ne semblent pas naturelles lorsqu’elles sont ralenties. Si vous regardez une vidéo sur un écran plus grand que votre smartphone ou si vous disposez d’un logiciel de montage vidéo qui peut ralentir la lecture d’une vidéo, vous pouvez zoomer et examiner les images de plus près. Zoomer sur les lèvres, par exemple, vous aidera à voir si elles parlent vraiment ou si c’est une mauvaise synchronisation labiale.

13. Écarts de hashtag. Il existe un algorithme cryptographique qui aide les créateurs de vidéos à montrer que leurs vidéos sont authentiques. L’algorithme est utilisé pour insérer des hashtags à certains endroits tout au long d’une vidéo. Si les hashtags changent, vous devez suspecter une manipulation vidéo.

14. Empreintes digitales numériques. La technologie Blockchain peut également créer une empreinte numérique pour les vidéos. Bien qu’elle ne soit pas infaillible, cette vérification basée sur la blockchain peut aider à établir l’authenticité d’une vidéo. Voici comment cela fonctionne. Lorsqu’une vidéo est créée, le contenu est enregistré dans un registre qui ne peut pas être modifié. Cette technologie peut aider à prouver l’authenticité d’une vidéo.

15. Recherches d’images inversées. Une recherche d’une image originale, ou une recherche d’image inversée à l’aide d’un ordinateur, peut déterrer des vidéos similaires en ligne pour aider à déterminer si une image, un son ou une vidéo a été modifié de quelque manière que ce soit. Bien que la technologie de recherche vidéo inversée ne soit pas encore accessible au public, investir dans un outil comme celui-ci pourrait être utile.

Les réponses : les vraies personnes sont mises en avant

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite