Lutter contre la diffusion de contenus sexuels illicites par des mineurs en ligne
La création et la commercialisation de matériel pédopornographique, ou CSAM, sont souvent considérées comme les abus les plus préjudiciables constatés sur les plateformes de communication en ligne et de médias sociaux.
La plupart des discussions sur les politiques, les forces de l’ordre et les plateformes sur la lutte contre l’exploitation sexuelle des enfants se concentrent à juste titre sur les délinquants adultes qui créent, distribuent et monétisent des images sexuelles d’enfants. Même si la majorité du contenu acheté ou échangé en ligne est créé par des agresseurs adultes, dans certains cas, des mineurs (souvent des adolescents) créent également ce contenu illégal. Ils proposent souvent des offres payantes inspirées du contenu de sites pour adultes bien connus, tels que OnlyFans. Dans d’autres cas, les mineurs sont contraints de produire du contenu sexuel illicite, connu sous le nom de sextorsion, avec une augmentation spectaculaire des cas signalé par le FBI au cours de l’année écoulée.
Un nouveau rapport de l’Observatoire Internet de Stanford enquête sur les réseaux Instagram et Twitter impliqués dans la publicité et le commerce de matériels d’abus sexuels sur enfants auto-générés (SG-CSAM). Ces conclusions ont été couvertes par le Wall Street Journal, avec les réponses des entreprises citées dans le rapport.
Points clés à retenir
- De vastes réseaux de comptes qui semblent être gérés par des mineurs font ouvertement la promotion de matériels d’abus sexuels sur enfants auto-générés (SG-CSAM).
- Instagram est actuellement la plate-forme la plus importante pour ces réseaux, avec des fonctionnalités telles que des algorithmes de recommandation et une messagerie directe qui permettent de connecter acheteurs et vendeurs.
- Twitter a connu une régression apparente et maintenant résolue, permettant la publication de CSAM sur des profils publics malgré le fait que les hachages de ces images soient disponibles pour les plateformes et les chercheurs pour une détection et une suppression automatisées.
- Telegram autorise implicitement le trading de CSAM sur des canaux privés.
- L’échange de cartes-cadeaux et les échanges, tels que G2G, constituent un élément essentiel de la monétisation de SG-CSAM, permettant une compensation anonyme pour le contenu.
- L’étude de ces dynamiques est difficile mais nécessaire, en particulier dans un environnement où les fournisseurs de plateformes se désengagent des programmes de confiance et de sécurité. SIO a mis en place des systèmes pour étudier ces réseaux tout en empêchant l’exposition ou le stockage du CSAM lui-même.
Notre enquête révèle que de vastes réseaux de comptes, prétendument exploités par des mineurs, font ouvertement la promotion de SG-CSAM à vendre sur les réseaux sociaux. Instagram est devenu la principale plate-forme pour ces réseaux, offrant des fonctionnalités qui facilitent les connexions entre acheteurs et vendeurs. La popularité d’Instagram et son interface conviviale en font une option privilégiée pour ces activités. Les algorithmes de recommandation de la plateforme font efficacement la publicité de SG-CSAM : ces algorithmes analysent les comportements des utilisateurs et la consommation de contenu pour suggérer du contenu associé et des comptes à suivre.
Ces réseaux sont également présents sur Twitter. Au cours de l’enquête, les chercheurs ont découvert que malgré la disponibilité de hachages d’images pour identifier et supprimer les CSAM connus, Twitter a connu une apparente régression dans sa capacité à atténuer le problème. En utilisant PhotoDNA, un système de détection commun pour Dans les cas identifiés de CSAM connus, des correspondances ont été identifiées sur des profils publics, contournant les garanties qui auraient dû être en place pour empêcher la propagation de ce type de contenu. Cette lacune a été signalée à l’équipe Confiance et sécurité de Twitter, qui a répondu pour résoudre le problème. Cependant, cet échec souligne la nécessité pour les plateformes de donner la priorité à la sécurité des utilisateurs et l’importance des efforts de recherche collaboratifs pour atténuer et contrer de manière proactive la maltraitance et l’exploitation des enfants en ligne..
Même si les principales plateformes identifiées comme ayant une activité SG-CSAM significative étaient Instagram et Twitter, un large échantillon du secteur est exploité par cet écosystème, dont certains n’ont pas pu être analysés en profondeur à l’aide de méthodes open source.
Une initiative à l’échelle de l’industrie est nécessaire pour limiter la production, la découverte, la publicité et la distribution de SG-CSAM ; davantage de ressources devraient être consacrées à l’identification proactive et à l’arrêt des abus. Ces réseaux utilisent non seulement les plateformes de médias sociaux, mais aussi les services de partage de fichiers, les commerçants et les prestataires de paiement. Compte tenu de la nature multiplateforme du problème, sa résolution nécessitera un meilleur partage d’informations sur les réseaux de production, les contre-mesures et les méthodes d’identification des acheteurs.
SIO espère que cette recherche aidera l’industrie et les organisations à but non lucratif dans leurs efforts visant à supprimer les contenus pédopornographiques d’Internet. Les plateformes ont mis à jour les mesures de sécurité en fonction des résultats, mais des travaux supplémentaires sont nécessaires. Nous continuerons à collaborer avec la technologie et la sécurité des enfants. organisations à mener des recherches plus approfondies et à recommander des contre-mesures.