Est-ce la fin d’Internet tel que nous le connaissons ? | ACLU

Deux affaires pendantes devant la Cour suprême interprétant une loi de 1996 pourraient radicalement modifier la façon dont nous interagissons en ligne. Cette loi, l’article 230 de la loi sur la décence des communications, est souvent décriée comme un cadeau à Big Tech, mais cela passe à côté de l’essentiel. L’article 230 promeut la liberté d’expression en supprimant les fortes incitations pour les plateformes à limiter ce que nous pouvons dire et faire en ligne.

En vertu de l’article 230, les plateformes ne peuvent généralement pas être tenues responsables du contenu publié par les utilisateurs. Sans cette protection, des discours importants tels que la communication sur l’avortement, en particulier dans les États où l’avortement est interdit, pourraient être réduits au silence. Des mouvements comme #MeToo et #BLM n’auraient peut-être pas réussi à se faire connaître si les plateformes craignaient d’être poursuivies, même à tort, pour diffamation ou autres. Les gens auraient pu voir leur voix censurée, en particulier lorsqu’ils parlaient d’idées qui sont aujourd’hui attaquées politiquement : race et racisme, sexualité et justice de genre. Internet tel que nous le connaissons serait un endroit très différent.

Avant l’article 230, les entreprises qui cultivaient des communautés en ligne étaient légalement responsables de ce que leurs utilisateurs publiaient, tandis que celles qui n’exerçaient aucun contrôle éditorial ne l’étaient pas. La conséquence naturelle de cela était que certaines plates-formes choisiraient de limiter les conversations aux seuls sujets les moins controversés, tandis que d’autres plates-formes étaient incitées à héberger des espaces gratuits pour tous, tolérant les contenus pornographiques, abusifs ou indésirables pour éviter toute responsabilité légale. . Le Congrès a sagement reconnu qu’Internet pouvait être bien plus que cela et a adopté la section 230.

Bien que l’article 230 immunise les plateformes en ligne de toute responsabilité légale pour les publications, commentaires et autres messages fournis par leurs utilisateurs, il ne dégage pas les plateformes de toute responsabilité pour le contenu qui viole le droit pénal fédéral, les droits de propriété intellectuelle ou quelques autres catégories d’obligations légales. . L’article 230 ne s’applique pas non plus au comportement de la plate-forme qui ne relève pas de la publication d’autres contenus, comme le ciblage discriminatoire des annonces de logement ou d’emploi sur la base de la race ou du sexe.

Il ne fournit pas non plus de refuge aux plates-formes qui fournissent aux annonceurs des outils conçus pour cibler les publicités sur les utilisateurs en fonction du sexe, de la race ou d’autres statuts protégés par les lois sur les droits civils. Il n’offre pas non plus d’immunité contre les allégations selon lesquelles les propres algorithmes de diffusion d’annonces d’une plate-forme sont discriminatoires. L’ACLU a récemment expliqué pourquoi cette conduite ne relève pas du champ d’application de l’article 230. Dans ces scénarios, où le fondement présumé de la responsabilité est la propre discrimination des plates-formes, l’ACLU cherche à empêcher les plates-formes d’abuser ou d’interpréter de manière erronée l’immunité de l’article 230.

Aujourd’hui, Internet permet aux gens de communiquer entre eux à une échelle auparavant impossible. C’est l’une des principales sources pour connaître l’actualité, vérifier les annonces d’emploi, parler et écouter sur la place publique moderne et explorer autrement les vastes domaines de la pensée et de la connaissance humaines, comme la Cour suprême l’a récemment reconnu dans Packingham c.Caroline du Nord. Dans le même temps, les plateformes sont libres de gérer le contenu des utilisateurs, en supprimant les publications problématiques contenant de la nudité, des insultes racistes, du spam ou des informations frauduleuses.

Ce mandat, la Cour suprême examinera la portée des protections des lois en Twitter contre Taamneh et Gonzalez contre Google. Ces cas ont été portés par des membres de la famille de citoyens américains qui ont été tués par l’Etat islamique dans des attentats terroristes. Les poursuites allèguent que les plateformes, y compris Twitter et YouTube de Google, aident et encouragent les attaques de l’Etat islamique en ne bloquant pas ou en supprimant de manière adéquate le contenu faisant la promotion du terrorisme.

Mais Twitter et YouTube n’avaient pas et n’ont pas l’intention de promouvoir le terrorisme. Les vidéos identifiées par les plaignants ont été publiées par des membres de l’Etat islamique et, bien que légales, violent les conditions d’utilisation de Twitter et de YouTube. Les entreprises les auraient supprimés s’ils avaient été signalés. Il n’y a pas non plus d’allégation selon laquelle les personnes derrière l’attaque terroriste ont été inspirées par ces vidéos.

Le mémoire d’amicus de l’ACLU en Twitter contre Taamneh affirme que l’imposition d’une responsabilité dans ces circonstances aurait pour effet de paralyser indûment la parole. Bien sûr, une plate-forme pourrait promouvoir le terrorisme par ses politiques et ses actions. Mais imposer une responsabilité simplement pour hébergement contenu sans intention malveillante ni connaissance spécifique que tout message spécifique favorisant un acte criminel particulier étoufferait le discours et l’association en ligne. Cela se produit déjà, comme lorsqu’Instagram a confondu un message sur une mosquée historique avec un autre sur un groupe terroriste. Ces erreurs relativement courantes deviendraient la nouvelle norme.

Le Gonzalez L’affaire pose une question différente : si l’immunité de l’article 230 s’applique au contenu amplifié. Les plaignants soutiennent que lorsque les plateformes suggèrent du contenu aux utilisateurs, comme dans Up Next, You Might Like ou Recommended For You, ces suggestions ne sont pas protégées par l’article 230. Ainsi, alors qu’un fournisseur resterait immunisé pour simplement hébergement contenu, il serait responsable de mise en évidence il.

L’ACLU a déposé un mémoire d’amicus dans le Gonzalez cas pour expliquer pourquoi les plateformes en ligne n’ont pas d’autre choix que de donner la priorité à certains contenus par rapport à d’autres, et devraient être exemptées de toute responsabilité pour ces choix lorsqu’elles incluent du contenu d’un tiers. Compte tenu de la grande quantité de matériel publié chaque minute, les plateformes doivent sélectionner et organiser le contenu afin de l’afficher de manière utilisable. Il n’y a aucun moyen de présenter visuellement des informations aux utilisateurs d’applications ou de pages Web sans faire des choix éditoriaux qui sont, à tout le moins, des recommandations implicites.

De plus, organiser et recommander du contenu nous aide à trouver ce que nous recherchons, à recevoir et à créer des informations, à atteindre un public et à créer une communauté. Si l’article 230 ne s’applique pas à ce type d’organisation de contenu, les plateformes seront incitées à présenter des informations dans un fouillis désorganisé et se sentiront obligées d’inclure uniquement le contenu le plus inoffensif dont les avocats peuvent être certains qu’il n’inspirera personne à poursuivre.

L’article 230 a permis à l’expression publique sur Internet de prospérer. Il a créé un espace pour les mouvements sociaux ; permis aux plateformes d’accueillir le discours des militants et des organisateurs ; et a permis aux utilisateurs et aux créateurs de contenu sur des sites comme Instagram, TikTok et Twitch d’atteindre un public et de gagner leur vie. Sans cela, Internet sera un endroit beaucoup moins hospitalier pour la créativité humaine, l’éducation, la politique et la collaboration. Si nous perdons l’article 230, nous risquons de perdre Internet tel que nous le connaissons.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite