- Advertisement -

Internet algospeak change notre langage en temps réel, du nip nops au dollar bean

Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

Espace réservé pendant le chargement des actions d’article

Algospeak devient de plus en plus courant sur Internet alors que les gens cherchent à contourner les filtres de modération de contenu sur les plateformes de médias sociaux telles que TikTok, YouTube, Instagram et Twitch.

Algospeak fait référence aux mots de code ou aux tournures de phrases que les utilisateurs ont adoptés dans le but de créer un lexique sans danger pour la marque qui évitera que leurs messages soient supprimés ou déclassés par les systèmes de modération de contenu. Par exemple, dans de nombreuses vidéos en ligne, il est courant de dire non vivant plutôt que mort, SA au lieu d’agression sexuelle ou aubergine épicée au lieu de vibromasseur.

Alors que la pandémie a poussé davantage de personnes à communiquer et à s’exprimer en ligne, les systèmes algorithmiques de modération de contenu ont eu un impact sans précédent sur les mots que nous choisissons, en particulier sur TikTok, et ont donné naissance à une nouvelle forme de langage esopien basé sur Internet.

Contrairement aux autres plates-formes sociales grand public, le contenu est principalement distribué sur TikTok via une page For You organisée de manière algorithmique; avoir des abonnés ne garantit pas que les gens verront votre contenu. Ce changement a conduit les utilisateurs moyens à adapter leurs vidéos principalement à l’algorithme plutôt qu’à un suivi, ce qui signifie que le respect des règles de modération du contenu est plus crucial que jamais.

Lorsque la pandémie a éclaté, les utilisateurs de TikTok et d’autres applications ont commencé à l’appeler le Tournée de retrouvailles des Backstreet Boys ou l’appeler panini ou panda express car les plateformes ont déclassé les vidéos mentionnant la pandémie par son nom dans le but de lutter contre la désinformation. Lorsque les jeunes ont commencé à parler de leurs problèmes de santé mentale, ils ont parlé de devenir non vivants afin d’avoir des conversations franches sur le suicide sans punition algorithmique. Les travailleuses du sexe, qui ont longtemps été censurées par les systèmes de modération, se désignent sur TikTok comme des comptables et utilisent l’emoji de maïs comme substitut du mot porno.

Alors que les discussions sur les événements majeurs sont filtrées par des systèmes de diffusion de contenu algorithmique, de plus en plus d’utilisateurs modifient leur langage. Récemment, en discutant de l’invasion de l’Ukraine, les gens sur YouTube et TikTok ont ​​utilisé l’emoji tournesol pour signifier le pays. Lorsqu’ils encouragent les fans à les suivre ailleurs, les utilisateurs diront clignotant dans lio pour lien dans la bio.

Les euphémismes sont particulièrement courants dans les communautés radicalisées ou nuisibles. Les communautés de troubles de l’alimentation pro-anorexie ont depuis longtemps adopté des variantes de mots modérés pour échapper aux restrictions. Un article de la School of Interactive Computing du Georgia Institute of Technology a révélé que la complexité de ces variantes augmentait même avec le temps. L’année dernière, les groupes anti-vaccins sur Facebook ont ​​commencé à changer leurs noms en soirée dansante ou dîner et les influenceurs anti-vaccins sur Instagram ont utilisé des mots de code similaires, désignant les personnes vaccinées comme des nageurs.

Adapter le langage pour éviter l’examen est antérieur à Internet. De nombreuses religions ont évité de prononcer le nom du diable de peur de le convoquer, tandis que les personnes vivant dans des régimes répressifs ont développé des mots codés pour discuter de sujets tabous.

Les premiers internautes utilisaient une orthographe alternative ou leetspeak pour contourner les filtres de mots dans les salons de discussion, les tableaux d’images, les jeux en ligne et les forums. Mais les systèmes algorithmiques de modération de contenu sont plus répandus sur l’Internet moderne et finissent souvent par réduire au silence les communautés marginalisées et les discussions importantes.

Lors de l’apocalypse de YouTube en 2017, lorsque les annonceurs ont retiré leur argent de la plate-forme par crainte d’un contenu dangereux, les créateurs LGBTQ ont parlé de la démonétisation des vidéos pour avoir prononcé le mot gay. Certains ont commencé à utiliser le mot moins ou à en remplacer d’autres pour garder leur contenu monétisé. Plus récemment, les utilisateurs de TikTok ont ​​​​commencé à dire corne d’abondance plutôt qu’homophobie, ou à dire qu’ils sont membres de la communauté des butins pour signifier qu’ils sont LGBTQ.

Il y a une ligne que nous devons suivre, c’est une bataille sans fin pour dire quelque chose et essayer de faire passer le message sans le dire directement, a déclaré Sean Szolek-VanValkenburgh, un créateur de TikTok avec plus de 1,2 million d’abonnés. Cela affecte de manière disproportionnée la communauté LGBTQIA et la communauté BIPOC parce que ce sont les personnes qui ont créé ce verbiage et proposé les colloques.

Les conversations sur la santé des femmes, la grossesse et les cycles menstruels sur TikTok sont également systématiquement déclassées, a déclaré Kathryn Cross, créatrice de contenu de 23 ans et fondatrice d’Anja Health, une start-up proposant des banques de sang de cordon ombilical. Elle remplace les mots pour sexe, règles et vagin par d’autres mots ou les épelle avec des symboles dans les légendes. De nombreux utilisateurs disent nip nops plutôt que mamelons.

Cela me donne l’impression d’avoir besoin d’une clause de non-responsabilité parce que j’ai l’impression que cela vous donne l’impression de ne pas être professionnel d’avoir ces mots étrangement orthographiés dans vos légendes, a-t-elle dit, en particulier pour le contenu censé être sérieux et médicalement incliné.

Étant donné que les algorithmes en ligne signalent souvent le contenu mentionnant certains mots, sans contexte, certains utilisateurs évitent complètement de les prononcer, simplement parce qu’ils ont des significations alternatives. Vous devez dire saltines quand vous parlez littéralement de crackers maintenant, a déclaré Lodane Erisian, responsable de la communauté des créateurs de Twitch (Twitch considère le mot cracker comme une insulte). Twitch et d’autres plateformes sont même allées jusqu’à supprimer certaines emotes parce que les gens les utilisaient pour communiquer certains mots.

Les utilisateurs noirs et trans, et ceux d’autres communautés marginalisées, utilisent souvent l’algospeak pour discuter de l’oppression à laquelle ils sont confrontés, remplaçant les mots par blanc ou raciste. Certains sont trop nerveux pour prononcer le mot blanc et tiennent simplement leur paume vers la caméra pour signifier les Blancs.

La réalité est que les entreprises technologiques utilisent des outils automatisés pour modérer le contenu depuis très longtemps et bien qu’il soit présenté comme cet apprentissage automatique sophistiqué, ce n’est souvent qu’une liste de mots qu’ils pensent être problématiques, a déclaré ngel Daz, maître de conférences à l’UCLA. École de droit qui étudie la technologie et la discrimination raciale.

En janvier, Kendra Calhoun, chercheuse postdoctorale en anthropologie linguistique à UCLA, et Alexia Fawcett, doctorante en linguistique à UC Santa Barbara, ont fait une présentation sur le langage sur TikTok. Ils ont expliqué comment, en s’autocensurant dans les sous-titres de TikToks, de nouveaux mots de code en algospeak ont ​​émergé.

Les utilisateurs de TikTok utilisent désormais l’expression le dollar bean au lieu de lesbienne, car c’est ainsi que la fonction de synthèse vocale de TikToks prononce Le $ bian, une manière censurée d’écrire lesbienne qui, selon les utilisateurs, échappera à la modération du contenu.

Evan Greer, directeur de Fight for the Future, un groupe de défense des droits numériques à but non lucratif, a déclaré qu’essayer d’écraser des mots spécifiques sur les plateformes est une course folle.

Un, ça ne marche pas vraiment, dit-elle. Les personnes qui utilisent des plates-formes pour organiser de vrais dommages sont assez douées pour comprendre comment contourner ces systèmes. Et deuxièmement, cela conduit à des dommages collatéraux du discours littéral. Essayer de réguler la parole humaine à l’échelle de milliards de personnes dans des dizaines de langues différentes et essayer de faire face à des choses telles que l’humour, le sarcasme, le contexte local et l’argot ne peut pas être fait en déclassant simplement certains mots, affirme Greer.

J’ai l’impression que c’est un bon exemple de la raison pour laquelle la modération agressive ne sera jamais une véritable solution aux dommages que nous constatons dans les pratiques commerciales des grandes entreprises technologiques, a-t-elle déclaré. Vous pouvez voir à quel point cette pente est glissante. Au fil des ans, nous avons vu de plus en plus de demandes erronées du grand public pour que les plateformes suppriment plus de contenu rapidement, quel que soit le coût.

Les créateurs de Big TikTok ont ​​​​créé des documents Google partagés avec des listes de centaines de mots qu’ils jugent problématiques pour les systèmes de modération des applications. D’autres utilisateurs conservent un décompte des termes qui, selon eux, ont étranglé certaines vidéos, essayant de désosser le système.

Zuck Got Me For, un site créé par un administrateur de compte meme qui s’appelle Ana, est un endroit où les créateurs peuvent télécharger du contenu absurde qui a été interdit par les algorithmes de modération d’Instagram. Dans un manifeste sur son projet, elle a écrit : La liberté créative est l’une des seules doublures argentées de cet enfer en ligne flamboyant dans lequel nous existons tous Alors que les algorithmes resserrent ses créateurs indépendants qui souffrent.

Elle explique également comment parler en ligne de manière à échapper aux filtres. Si vous avez violé les conditions d’utilisation, vous ne pourrez peut-être pas utiliser de jurons ou de mots négatifs comme la haine, le meurtre, le laid, le stupide, etc., a-t-elle déclaré. J’écris souvent, je le contraire de l’amour xyz au lieu de je déteste xyz.

La Online Creators Association, un groupe de défense des droits des travailleurs, a également publié une liste de demandes, demandant à TikTok plus de transparence dans la manière dont il modère le contenu. Les gens doivent atténuer leur propre langage pour ne pas offenser ces dieux TikTok qui voient tout et qui savent tout, a déclaré Cecelia Gray, créatrice de TikTok et cofondatrice de l’organisation.

TikTok propose un centre de ressources en ligne pour les créateurs qui souhaitent en savoir plus sur ses systèmes de recommandation, et a ouvert plusieurs centres de transparence et de responsabilité où les clients peuvent apprendre comment fonctionne l’algorithme des applications.

Vince Lynch, directeur général d’IV.AI, une plate-forme d’IA pour comprendre le langage, a déclaré que dans certains pays où la modération est plus lourde, les gens finissent par construire de nouveaux dialectes pour communiquer. Cela devient de véritables sous-langues, a-t-il déclaré.

Mais à mesure que l’algospeak devient plus populaire et que les mots de remplacement se transforment en argot commun, les utilisateurs constatent qu’ils doivent faire preuve de plus en plus de créativité pour échapper aux filtres. Cela se transforme en un jeu de coup de taupe, a déclaré Gretchen McCulloch, linguiste et auteur de Because Internet, un livre sur la façon dont Internet a façonné le langage. Alors que les plateformes commencent à remarquer que les gens disent seggs au lieu de sexe, par exemple, certains utilisateurs signalent qu’ils pensent que même des mots de remplacement sont signalés.

Nous finissons par créer de nouvelles façons de parler pour éviter ce genre de modération, a déclaré Daz de la faculté de droit de l’UCLA, puis nous finissons par adopter certains de ces mots et ils deviennent une langue vernaculaire commune. Tout est né de cet effort pour résister à la modération.

Cela ne signifie pas que tous les efforts pour éradiquer les mauvais comportements, le harcèlement, les abus et la désinformation sont vains. Mais Greer soutient que ce sont les problèmes fondamentaux qui doivent être prioritaires. La modération agressive ne sera jamais une véritable solution aux dommages que nous constatons dans les pratiques commerciales des grandes entreprises technologiques, a-t-elle déclaré. C’est une tâche pour les décideurs politiques et pour construire de meilleures choses, de meilleurs outils, de meilleurs protocoles et de meilleures plates-formes.

En fin de compte, a-t-elle ajouté, vous ne pourrez jamais assainir Internet.

www.actusduweb.com
Suivez Actusduweb sur Google News


Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

commentaires

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite