#image_title

Les images d’abus sexuels sur enfants générées par l’IA pourraient inonder Internet. Il y a maintenant des appels à l’action

NEW YORK (AP) La prolifération déjà alarmante d’images d’abus sexuels sur des enfants sur Internet pourrait s’aggraver si quelque chose n’est pas fait pour contrôler les outils d’intelligence artificielle qui génèrent de fausses photos, a prévenu mardi une agence de surveillance.

Dans un rapport écrit, l’Internet Watch Foundation, basée au Royaume-Uni, exhorte les gouvernements et les fournisseurs de technologies à agir rapidement avant qu’un flot d’images d’abus sexuels sur enfants générées par l’IA ne submerge les enquêteurs des forces de l’ordre et n’étende considérablement le bassin de victimes potentielles.

Nous ne parlons pas du mal que cela pourrait causer, a déclaré Dan Sexton, directeur de la technologie du groupe de surveillance. Cela se produit actuellement et il faut y remédier dès maintenant.

Dans une affaire unique en son genre en Corée du Sud, un homme a été condamné en septembre à deux ans et demi de prison pour avoir utilisé l’intelligence artificielle pour créer 360 images virtuelles d’abus d’enfants, selon le tribunal du district de Busan, dans le sud-est du pays. .

Dans certains cas, les enfants utilisent ces outils les uns sur les autres. Dans une école du sud-ouest de l’Espagne, la police a enquêté sur des adolescents qui auraient utilisé une application téléphonique pour faire apparaître nus leurs camarades de classe entièrement habillés sur des photos.

Le rapport expose un côté sombre de la course à construire des systèmes d’IA génératifs qui permettent aux utilisateurs de décrire avec des mots ce qu’ils souhaitent produire, des e-mails aux nouvelles illustrations ou vidéos, et de le faire recracher par le système.

Si cela n’est pas stoppé, le flot d’images d’abus sexuels sur des enfants pourrait enliser les enquêteurs qui tentent de sauver des enfants qui se révèlent être des personnages virtuels. Les auteurs pourraient également utiliser les images pour préparer et contraindre de nouvelles victimes.

Sexton a déclaré que les analystes de l’IWF ont découvert des visages d’enfants célèbres en ligne ainsi qu’une demande massive pour la création de davantage d’images d’enfants qui ont déjà été maltraités, peut-être il y a des années.

Ils prennent le contenu réel existant et l’utilisent pour créer du nouveau contenu sur ces victimes, a-t-il déclaré. C’est tout simplement incroyablement choquant.

Sexton a déclaré que son organisation caritative, qui se concentre sur la lutte contre les abus sexuels sur enfants en ligne, a commencé à produire des rapports sur des images abusives générées par l’IA plus tôt cette année. Cela a conduit à une enquête sur les forums du dark web, une partie d’Internet hébergée dans un réseau crypté et accessible uniquement via des outils garantissant l’anonymat.

Les analystes de l’IWF ont découvert que des agresseurs partageaient des conseils et s’émerveillaient de la facilité avec laquelle ils transformaient leurs ordinateurs personnels en usines pour générer des images sexuellement explicites d’enfants de tous âges. Certains font également du commerce et tentent de tirer profit de ces images qui semblent de plus en plus réalistes.

Ce que nous commençons à voir, c’est cette explosion de contenu, a déclaré Sexton.

Bien que le rapport de l’IWF vise à signaler un problème croissant plutôt qu’à proposer des solutions, il exhorte les gouvernements à renforcer les lois pour faciliter la lutte contre les abus générés par l’IA. Il cible particulièrement l’Union européenne, où il y a un débat sur les mesures de surveillance qui pourraient analyser automatiquement les applications de messagerie à la recherche d’images suspectées d’abus sexuels sur des enfants, même si les images ne sont pas connues auparavant des forces de l’ordre.

L’un des objectifs du groupe est d’empêcher que d’anciennes victimes d’abus sexuels ne soient à nouveau abusées grâce à la redistribution de leurs photos.

Le rapport indique que les fournisseurs de technologies pourraient faire davantage pour rendre plus difficile l’utilisation des produits qu’ils ont construits de cette manière, bien que cela soit compliqué par le fait que certains outils sont difficiles à remettre dans la bouteille.

Une série de nouveaux générateurs d’images IA ont été introduits l’année dernière et ont séduit le public par leur capacité à créer des images fantaisistes ou photoréalistes sur commande. Mais la plupart d’entre eux ne sont pas favorisés par les producteurs de matériel pédopornographique car ils contiennent des mécanismes permettant de bloquer ce contenu.

Les fournisseurs de technologie qui ont fermé leurs modèles d’IA, avec un contrôle total sur la manière dont ils sont formés et utilisés, par exemple, le générateur d’images DALL-E d’OpenAI, ont mieux réussi à bloquer les utilisations abusives, a déclaré Sexton.

En revanche, un outil privilégié par les producteurs d’images d’abus sexuels sur des enfants est le logiciel open source Stable Diffusion, développé par la startup londonienne Stability AI. Lorsque Stable Diffusion a fait son apparition à l’été 2022, un sous-ensemble d’utilisateurs a rapidement appris à l’utiliser pour générer de la nudité et de la pornographie. Même si la plupart de ces documents représentaient des adultes, c’était souvent non consensuelcomme lorsqu’il était utilisé pour créer des photos de nus inspirées des célébrités.

Stability a ensuite déployé de nouveaux filtres qui bloquent les contenus dangereux et inappropriés, et une licence d’utilisation du logiciel Stabilitys est accompagnée d’une interdiction des utilisations illégales.

Dans un communiqué publié mardi, la société a déclaré qu’elle interdisait strictement toute utilisation abusive à des fins illégales ou immorales sur ses plateformes. Nous soutenons fermement les efforts d’application de la loi contre ceux qui utilisent nos produits à des fins illégales ou néfastes, indique le communiqué.

Les utilisateurs peuvent toutefois toujours accéder aux anciennes versions de Stable Diffusion, qui constituent en grande partie le logiciel de choix… pour les personnes créant du contenu explicite impliquant des enfants, a déclaré David Thiel, technologue en chef de l’Observatoire Internet de Stanford, un autre groupe de surveillance étudiant le problème.

Le rapport de l’IWF reconnaît la difficulté d’essayer de criminaliser les outils de génération d’images d’IA eux-mêmes, même ceux conçus pour produire du matériel abusif.

Vous ne pouvez pas réglementer ce que les gens font sur leur ordinateur, dans leur chambre. Ce n’est pas possible, a ajouté Sexton. Alors, comment en arriver au point où ils ne peuvent pas utiliser des logiciels librement disponibles pour créer un contenu préjudiciable comme celui-ci ?

La plupart des images d’abus sexuels sur enfants générées par l’IA seraient considérées comme illégales en vertu des lois en vigueur aux États-Unis, au Royaume-Uni et ailleurs, mais il reste à voir si les forces de l’ordre disposent des outils nécessaires pour les combattre.

Un responsable de la police britannique a déclaré que le rapport montrait l’impact déjà constaté par les agents travaillant à identifier les victimes.

Nous voyons des enfants soignés, nous voyons des auteurs créer leurs propres images selon leurs propres spécifications, nous voyons la production d’images d’IA à des fins commerciales, tout cela normalisant le viol et la maltraitance de vrais enfants, a déclaré dans une déclaration Ian Critchley, enfant responsable de la protection pour le Conseil national des chefs de police.

Le rapport de l’IWF est programmé avant un rassemblement mondial sur la sécurité de l’IA la semaine prochaine organisé par le gouvernement britannique et auquel participeront des participants de haut niveau, dont la vice-présidente américaine Kamala Harris et des dirigeants technologiques.

Bien que ce rapport dresse un tableau sombre, je suis optimiste, a déclaré Susie Hargreaves, PDG de l’IWF, dans une déclaration écrite préparée. Elle a déclaré qu’il était important de communiquer les réalités du problème à un large public, car nous devons discuter du côté le plus sombre de cette technologie étonnante.

___

OBrien a rapporté de Providence, Rhode Island. Les rédacteurs d’Associated Press Barbara Ortutay à Oakland, en Californie, et Hyung-jin Kim à Séoul, en Corée du Sud, ont contribué à ce rapport.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite