#image_title

Meta dit qu’il identifiera davantage d’images générées par l’IA avant les prochaines élections

Le PDG de Meta Platforms, Mark Zuckerberg, arrive au tribunal fédéral de San Jose, en Californie, le 20 décembre 2022.

David Paul Morris | Bloomberg | Getty Images

Meta a déclaré mardi qu’elle étendait ses efforts pour identifier les images falsifiées par l’intelligence artificielle alors qu’elle cherchait à éliminer la désinformation et les deepfakes avant les prochaines élections dans le monde.

La société a déclaré qu’elle construisait des outils pour identifier à grande échelle le contenu généré par l’IA lorsqu’il apparaît sur Facebook, Instagram et Threads.

Jusqu’à présent, Meta étiquetait uniquement les images générées par l’IA et développées à l’aide de ses propres outils d’IA. Désormais, a déclaré la société, elle cherchera à appliquer ces étiquettes au contenu de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock.

Les étiquettes apparaîtront dans toutes les langues disponibles sur chaque application, a déclaré Meta. Mais le changement ne sera pas immédiat.

Nick Clegg, président des affaires mondiales de Meta, a écrit dans un article de blog que la société commencerait à étiqueter les images générées par l’IA provenant de sources externes « dans les mois à venir » et continuerait à travailler sur le problème « au cours de l’année prochaine ».

Le temps supplémentaire est nécessaire pour travailler avec d’autres sociétés d’IA afin de « s’aligner sur des normes techniques communes qui signalent lorsqu’un élément de contenu a été créé à l’aide de l’IA », a écrit Clegg.

La désinformation liée aux élections a provoqué une crise sur Facebook après l’élection présidentielle de 2016, en raison de la manière dont des acteurs étrangers, en grande partie russes, ont été capables de créer et de diffuser des contenus très chargés et inexacts. La plateforme a été exploitée à plusieurs reprises au cours des années qui ont suivi, notamment pendant la pandémie de Covid, lorsque les gens l’ont utilisée pour diffuser de grandes quantités de désinformation. Les négationnistes de l’Holocauste et les théoriciens du complot QAnon étaient également monnaie courante sur le site.

Meta essaie de montrer qu’elle est prête à ce que les mauvais acteurs utilisent des formes de technologie plus avancées au cours du cycle 2024.

Même si certains contenus générés par l’IA sont facilement détectés, ce n’est pas toujours le cas. Il a été démontré que les services qui prétendent identifier les textes générés par l’IA, comme dans les essais, présentent des préjugés à l’égard des anglophones non natifs. Ce n’est pas beaucoup plus simple pour les images et les vidéos, même s’il y a souvent des signes.

Meta cherche à minimiser l’incertitude en travaillant principalement avec d’autres sociétés d’IA qui utilisent des filigranes invisibles et certains types de métadonnées dans les images créées sur leurs plateformes. Cependant, il existe des moyens de supprimer les filigranes, un problème que Meta envisage de résoudre.

« Nous travaillons dur pour développer des classificateurs qui peuvent nous aider à détecter automatiquement le contenu généré par l’IA, même si le contenu manque de marqueurs invisibles », a écrit Clegg. « En même temps, nous recherchons des moyens de rendre plus difficile la suppression ou la modification des filigranes invisibles. »

L’audio et la vidéo peuvent être encore plus difficiles à surveiller que les images, car il n’existe pas encore de norme industrielle permettant aux entreprises d’IA d’ajouter des identifiants invisibles.

« Nous ne pouvons pas encore détecter ces signaux et étiqueter ce contenu provenant d’autres sociétés », a écrit Clegg.

Meta ajoutera un moyen permettant aux utilisateurs de divulguer volontairement lorsqu’ils téléchargent une vidéo ou un audio généré par l’IA. S’ils partagent un deepfake ou une autre forme de contenu généré par l’IA sans le divulguer, l’entreprise « peut appliquer des sanctions », indique le message.

« Si nous déterminons qu’un contenu image, vidéo ou audio créé ou modifié numériquement crée un risque particulièrement élevé de tromper matériellement le public sur une question importante, nous pouvons ajouter une étiquette plus visible si nécessaire », a écrit Clegg.

MONTRE: Meta est trop optimiste quant à la croissance des revenus et des coûts

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite