C’est sur les plateformes numériques pour faire d’Internet un meilleur endroit

Pendant des années, les utilisateurs de la technologie numérique ont eu la responsabilité exclusive de gérer la désinformation, la négativité, les risques pour la vie privée et les abus numériques, pour n’en nommer que quelques-uns. Mais le maintien du bien-être numérique est un poids lourd à mettre sur les épaules d’un individu. Et si nous n’avions pas à supporter autant le fardeau du maintien de notre bien-être numérique ? Et si nous attendions un peu plus des fournisseurs de plateformes numériques qui hébergent nos interactions virtuelles ?

Il y a trois responsabilités clés que nous devrions attendre de tous nos fournisseurs de plateformes numériques pour aider à créer des espaces numériques plus positifs. Tout d’abord, établissez des normes et des standards significatifs pour la participation aux espaces virtuels et communiquez-les clairement aux utilisateurs. Deuxièmement, vérifiez les utilisateurs humains et éliminez les bots. Troisièmement, améliorez la conservation du contenu en traitant les publications qui incitent au racisme, à la violence ou à des activités illégales ; identifier la désinformation ; et encourager les utilisateurs à être des modérateurs de contenu.

Nous vivons dans un monde où l’accès à la technologie est sans précédent. Même avant la pandémie de coronavirus, la technologie nous permettait de rester en contact avec notre famille et nos amis, de diffuser des vidéos chez nous et d’acquérir de nouvelles compétences d’une simple pression du doigt. Lorsque la pandémie nous a obligés à nous éloigner socialement, la technologie a permis à bon nombre de nos activités de vie les plus importantes de se poursuivre comme l’école, le travail, l’église, les réunions de famille, les rendez-vous chez le médecin, etc. déplacés vers des espaces virtuels.

Pourtant, comme tout outil puissant, la technologie comporte également des dangers. En plus de connecter les familles et d’accélérer l’apprentissage, notre monde numérique peut également être source de désinformation, de négativité, de risque pour la vie privée et d’abus numérique, pour n’en nommer que quelques-uns. Même de bonnes applications et de bons sites Web, s’ils sont surutilisés, peuvent éliminer d’autres activités numériques et physiques saines de nos vies. Nous avons tous ressenti la pression croissante d’essayer de maintenir notre bien-être en raison de ces défis numériques. Bien sûr, nous, les citoyens de notre monde numérique, avons la responsabilité d’assurer notre propre santé numérique. C’est à nous de trouver des sources d’informations précises, de faire des choix sur les données personnelles que nous sommes prêts à échanger pour accéder à l’expérience en ligne, ou comment assurer l’équilibre entre les différentes activités en ligne. Ces responsabilités se répercutent sur nos familles où nous ressentons la pression de créer la bonne culture numérique pour que nos enfants et les autres membres de la famille puissent également s’épanouir. Maintenir le bien-être numérique est un poids lourd à mettre sur les épaules d’un individu.

Mais que se passerait-il si nous n’avions pas à supporter autant le fardeau du maintien de notre bien-être numérique ? Et si nous attendions un peu plus des fournisseurs de plateformes numériques qui hébergent nos interactions virtuelles ?

L’auteur et entrepreneur Eli Pariser dit que nous devrions attendre plus de nos fournisseurs de plateformes numériques en échange du pouvoir que nous leur donnons sur notre discours. Il pense que nous devrions nous demander non seulement comment nous rendons les outils numériques conviviaux, mais aussi comment nous rendons les outils numériques Publique-amical. En d’autres termes, il est de notre responsabilité de nous assurer que nos plateformes numériques ne servent jamais les individus au détriment du tissu social dont nous dépendons tous.

Dans cet esprit, examinons trois responsabilités clés que nous devrions attendre de tous nos fournisseurs de plateformes numériques.

Établir des normes significatives

Les plateformes virtuelles doivent établir et communiquer clairement des normes de participation à leurs espaces virtuels. Certains font déjà du bon travail, notamment Flickr, Lonely Planet et The Verge. Les normes de la communauté Flickrs sont des directives simples et lisibles qui sont clairement conçues pour être comprises par les membres de la communauté (pas seulement les avocats). Ils incluent des dos clairs comme :

Joue bien. Étaient une communauté mondiale de nombreux types de personnes, qui ont toutes le droit de se sentir à l’aise et qui peuvent ne pas penser ce que vous pensez, croire ce que vous croyez ou voir ce que vous voyez. Alors, soyez poli et respectueux dans vos interactions avec les autres membres.

Et ils incluent également des choses à ne pas faire claires :

Ne soyez pas effrayant. Vous connaissez le gars. Ne soyez pas ce gars. Si vous êtes ce type, votre compte sera supprimé.

Tous des plateformes numériques devrait établir un code de conduite clair et celui-ci devrait être activement intégré dans l’ensemble de l’espace virtuel. Même les exemples que j’ai mentionnés ont leurs normes assez profondément enfouies dans le coin arrière de leurs sites. Une façon d’y parvenir consiste à créer des messages de signalisation et des rappels des normes de comportement sur toute la plate-forme. Imaginez si, au lieu d’une annonce de plus pour de nouvelles chaussettes sur Pinterest, un rappel apparaissait pour publier quelque chose de gentil sur quelqu’un d’autre aujourd’hui. Ou imaginez si, au lieu de regarder encore une autre publicité d’assurance automobile avant la lecture d’une vidéo YouTube, on pourrait nous présenter des conseils sur la façon d’être respectueusement en désaccord avec le contenu de la vidéo de quelqu’un d’autre. Bien sûr, cela obligerait les fournisseurs de plates-formes à renoncer à une fraction d’un pourcentage des revenus publicitaires, mais c’est une attente très raisonnable pour eux s’ils veulent disposer d’une plate-forme responsable et fiable.

Vérifier les utilisateurs humains

Une deuxième attente des fournisseurs de plateformes est de prendre plus au sérieux la responsabilité d’identifier les utilisateurs de leurs plateformes qui ne sont pas humains. Certains des messages les plus controversés qui inondent le monde virtuel chaque jour sont générés par des bots, qui sont capables de discuter de leurs positions numériques avec des humains sans méfiance pendant des heures. Une étude a révélé qu’au plus fort de la pandémie de Covid-19, près de la moitié des comptes tweetant sur le virus étaient des bots. YouTube et Facebook comptent à peu près autant d’utilisateurs de robots que d’utilisateurs humains. Au cours d’une période de trois mois en 2018, Facebook a supprimé plus de 2 milliards de faux comptes, mais jusqu’à ce qu’une vérification supplémentaire soit ajoutée, de nouveaux comptes seront créés, également par des bots, presque aussi rapidement que les anciens seront supprimés.

En plus d’étiqueter clairement les bots en tant que bots, les fournisseurs de plateformes devraient faire davantage pour vérifier l’identité des utilisateurs humains, en particulier ceux qui sont largement suivis. De nombreuses parties sombres et effrayantes de notre monde virtuel existent parce que les plateformes en ligne ont fait preuve d’un laxisme irresponsable en vérifiant que les utilisateurs sont bien ceux qu’ils prétendent être. Cela ne signifie pas que les plates-formes ne peuvent toujours pas autoriser les utilisateurs anonymes, mais ces comptes doivent être clairement étiquetés comme non vérifiés afin que lorsque votre voisin demande à votre fille des informations sur son école en ligne, elle puisse rapidement reconnaître si elle doit se méfier. La technologie pour effectuer ce type de vérification existe et est assez simple (les banques et les compagnies aériennes l’utilisent tout le temps). Twitter a piloté cette approche via des comptes vérifiés, mais s’est ensuite arrêté, affirmant qu’il n’avait pas la bande passante pour continuer. Le manque d’attentes en matière d’identités vérifiées favorise la fraude, la cyberintimidation et la désinformation. Si les plateformes numériques veulent que nous leur fassions confiance pour héberger nos communautés virtuelles, nous devrions nous attendre à ce qu’elles identifient et interpellent les utilisateurs qui ne sont pas ceux qu’elles prétendent être.

Améliorez la conservation du contenu

La troisième responsabilité des plateformes numériques est d’être plus proactives dans la conservation du contenu sur leurs plateformes. Cela commence par traiter rapidement les messages qui incitent au racisme, à la violence, aux activités terroristes ou aux fonctionnalités qui facilitent l’achat de drogues illégales, la participation au vol d’identité ou à la traite des êtres humains. En 2019, Twitter a commencé à ajouter des étiquettes d’avertissement aux tweets intimidants ou trompeurs des dirigeants politiques. Un exemple notable est lorsqu’un tweet de l’ancien président Donald Trump a été signalé pour avoir affirmé que les bulletins de vote par correspondance conduisaient à une fraude électorale généralisée. Apple a également pris cette responsabilité au sérieux avec un processus d’examen rigoureux des applications ajoutées à ses appareils mobiles. Contrairement au Web, Apple n’autorise pas les applications qui distribuent de la pornographie, encouragent la consommation de drogues illégales ou encouragent les mineurs à consommer de l’alcool ou à fumer sur ses appareils. Apple et Google ont tous deux commencé à exiger que les applications de leurs magasins respectifs aient des plans de modération de contenu en place pour rester.

Une modération de contenu efficace signifie également faire plus pour responsabiliser les modérateurs humains. Reddit et Wikipedia sont les plus grands exemples de plates-formes qui s’appuient sur des modérateurs humains pour s’assurer que leurs expériences communautaires sont conformes à leurs normes établies. Dans les deux cas, les humains ne jouent pas seulement un rôle de police, mais participent activement au développement du contenu sur la plateforme. Les deux s’appuient sur des conservateurs bénévoles, mais nous pourrions raisonnablement nous attendre à ce que les modérateurs humains soient rémunérés pour le temps et l’énergie qu’ils consacrent à rendre les espaces communautaires virtuels plus efficaces. Cela peut être fait de différentes manières. Par exemple, YouTube incite actuellement les créateurs de contenu à télécharger des vidéos sur sa plate-forme en leur offrant un pourcentage des revenus publicitaires ; une incitation similaire pourrait être donnée pour encourager les utilisateurs qui aident à organiser le contenu sur ces plateformes. L’approche actuelle de YouTube, cependant, consiste à utiliser des bots pour modérer et organiser. Comme le souligne l’auteur et technologue James Bridle, le contenu sur YouTube créé par des bots est également contrôlé par des bots, les utilisateurs humains de la plate-forme en paient le prix.

Un autre moyen simple de responsabiliser les utilisateurs en tant que modérateurs consiste à fournir des options plus nuancées pour réagir au contenu des autres. À l’heure actuelle, aimer ou ne pas aimer sont à peu près toutes les options dont nous disposons pour répondre au contenu sur les plateformes partagées. Certaines plates-formes ont ajouté un visage heureux, un cœur et, plus récemment, un câlin, mais cela reste un ensemble incroyablement limité d’options de réponse pour la variété de contenus qui circulent dans notre monde numérique.

Dans le monde physique, la rétroaction négative douce est un outil essentiel pour aider les gens à apprendre les normes de l’espace communautaire. La plupart des commentaires que nous donnons dans le monde physique sont beaucoup plus subtils que ce que nous pouvons faire en ligne. Si vous étiez en conversation avec quelqu’un qui a dit qu’il n’allait pas se faire vacciner parce qu’il contient une puce électronique de suivi secrète, nous pourrions répondre par un je ne sais pas à ce sujet ou un hmmm, vous voudrez peut-être vérifier vos faits. Mais dans le monde virtuel, notre seule option pourrait être de cliquer sur le bouton pouce vers le bas si ce bouton existe sur cette plate-forme. Dans un monde où les réactions très subtiles ont une grande importance, donner un gros coup de pouce à un ami est comme l’équivalent social d’une agression frontale. D’un autre côté, si vous choisissez d’éviter le moment gênant en vous désabonné de votre ami, vous venez de vous assurer qu’il n’entendra plus jamais vos commentaires, réduisant probablement sa caisse de résonance aux personnes ayant des opinions similaires, ce qui est encore moins utile pour établir normes sociétales partagées. Et si au lieu de simplement aimer ou ne pas aimer, nous pouvions étiqueter les choses alors que je remets en question la source de ce message ?

Les fournisseurs de plateformes numériques se soucient de ce que pensent leurs utilisateurs ; leur existence continue dépend de notre confiance continue. Nous devrions nous attendre à ce que les plateformes numériques établissent et infusent clairement leurs environnements avec des médias qui enseignent des normes de comportement appropriées sur leurs espaces numériques. Nous devrions les appeler à mieux étiqueter les utilisateurs non humains de leurs plateformes et à donner à leurs utilisateurs les moyens de s’impliquer davantage dans la curation du contenu.

Adapté du livre Digital for Good : Élever les enfants pour qu’ils s’épanouissent dans un monde en ligne (Harvard Business Review Press, 2021).

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite