#image_title

Après tout, Internet n’est pas éternel : CNET supprime les anciens articles pour jouer avec Google

Après tout, Internet n'est pas éternel : CNET supprime les anciens articles pour jouer avec Google

Aurich Lawson

CNET, l’un des arrière-grands-pères de l’actualité technologique sur le Web, a connu une année difficile. Tout d’abord, ses articles rédigés par l’IA ont déclenché un drame, puis des licenciements ont ébranlé la publication. Et maintenant, Gizmodo rapporte que le site âgé de 28 ans a supprimé des milliers de ses anciens articles dans le but d’obtenir un meilleur classement dans les recherches Google.

Le processus de suppression a commencé avec de petits lots d’articles et s’est considérablement intensifié dans la seconde quinzaine de juillet, conduisant à la suppression de milliers d’articles au cours des dernières semaines. Bien que CNET ait confirmé la suppression des articles à Gizmodo, le nombre exact d’articles supprimés n’a pas été divulgué.

« Supprimer du contenu de notre site n’est pas une décision que nous prenons à la légère. Nos équipes analysent de nombreux points de données pour déterminer s’il existe des pages sur CNET qui ne desservent pas actuellement une audience significative. Il s’agit d’une bonne pratique à l’échelle du secteur pour les grands sites comme le nôtre. qui sont principalement générés par le trafic SEO. Dans un monde idéal, nous laisserions tout notre contenu sur notre site à perpétuité. Malheureusement, nous sommes pénalisés par l’Internet moderne pour laisser tout le contenu précédemment publié en direct sur notre site », Taylor Canada, Directeur principal du marketing et des communications de CNET, a déclaré à Gizmodo.

Le référencement (optimisation pour les moteurs de recherche) consiste à tenter d’obtenir délibérément un meilleur classement dans les résultats des moteurs de recherche en modifiant le contenu d’un site Web. Les partisans des techniques de référencement estiment qu’un classement plus élevé dans les résultats de recherche Google peut affecter de manière significative le nombre de visiteurs, les ventes de produits ou les revenus publicitaires. De nombreuses entreprises vont à l’extrême pour tenter de satisfaire l’algorithme de classement de Google.

Une théorie visant à améliorer le classement des pages implique une pratique appelée « élagage du contenu ». Gizmodo a obtenu une note interne de CNET indiquant que la suppression des anciennes URL envoie un signal à Google indiquant que CNET est nouveau, pertinent et mérite d’être placé plus haut que nos concurrents dans les résultats de recherche.  » Cependant, avant de supprimer un article, CNET aurait maintenu un copie locale, envoie l’histoire à la Wayback Machine de The Internet Archive et informe tous les auteurs actuellement employés qui pourraient être concernés au moins 10 jours à l’avance.

Cependant, certains experts affirment que l’exemple extrême d’élagage de contenu donné par CNET est erroné. Le site Web Search Engine Land note que si Google a déjà conseillé (en 2011) que la suppression des « pages de mauvaise qualité » pourrait potentiellement augmenter le classement, il indique également que Google n’a jamais conseillé aux gens de supprimer du contenu simplement parce qu’il est ancien. En effet, mardi, le compte SearchLiaison X de Google tweeté« Supprimez-vous du contenu de votre site parce que vous pensez que Google n’aime pas les « anciens » contenus ? Ce n’est pas un problème ! Nos conseils ne vous encouragent pas à le faire. Un contenu plus ancien peut également être utile. En savoir plus sur la création d’informations utiles contenu. »

La longue et continue décadence du Web

À un moment donné, il était de notoriété publique que « Internet est éternel », ce qui signifie que tout ce que vous mettez en ligne y restera toujours. Nos recherches informelles sur Google Books et Google suggèrent que l’expression est née vers 2005 mais est devenue très populaire lors de l’ère du boom des réseaux sociaux en 2008-2009.

Cependant, au fil du temps, il est devenu de plus en plus évident qu’Internet est transitoire. La pourriture des liens menace quotidiennement le contenu sur le Web, et le contenu trouvé en ligne est loin d’être permanent. Une étude de l’Université Harvard de 2021 a examiné les hyperliens dans plus de 550 000 articles du New York Times de 1996 à 2019 et a découvert que 25 % des liens vers des pages spécifiques étaient inaccessibles. Sans The Internet Archive, par exemple, de nombreux premiers sites Web seraient complètement perdus.

Une capture d'écran d'un article de PCWorld pour lequel il manque une image.
Agrandir / Une capture d’écran d’un article de PCWorld pour lequel il manque une image.

Ars Technica

Les causes de la pourriture des liens incluent les fermetures de sites Web, les migrations de serveurs, le passage à de nouveaux systèmes de gestion de contenu, etc. Nous pouvons maintenant ajouter un autre coupable à la liste : l’élagage du contenu pour le référencement. C’est peut-être un autre signe de la gravité de la situation avec les résultats de recherche de Google remplis de sites indésirables générés par des algorithmes que des publications comme CNET soient poussées à de tels extrêmes pour rester au-dessus de la mer de bruit.

Même si les sites Web ne suppriment pas complètement le contenu, certaines archives peuvent être compromises au fil du temps par d’autres moyens. Au cours de la dernière décennie, une invasion de trolls du droit d’auteur a menacé de nombreuses publications de poursuites judiciaires pour avoir utilisé des images d’une manière qui constituerait probablement un usage loyal si elles étaient testées devant un tribunal. Mais les procès coûtent cher, donc les trolls ont gagné en recevant des règlements en espèces. En réponse, de nombreux sites Web ont supprimé les anciennes images des articles au lieu d’en trier des millions individuellement. Les archives de certains sites Web d’IDG, tels que PCWorld et Macworld, ont été affectées par cette suppression d’images.

Heureusement, tous les sites Web ne négligent pas leurs archives ou ne tombent pas dans le piège du référencement. Par exemple, sur Ars Technica, vous pouvez toujours trouver des articles écrits il y a 25 ans (et beaucoup dans leur format original), et la fonction de recherche d’Ars fonctionne toujours remarquablement bien.

Depuis des temps immémoriaux, la protection des contenus historiques a nécessité la réalisation de nombreuses copies sans autorisation, quelles que soient les forces culturelles ou économiques en jeu, et cela n’a pas changé avec Internet. Les archivistes opèrent dans un univers parallèle de propriété intellectuelle, empruntant des bribes de réalité et les gardant en sécurité jusqu’à ce que les décisions commerciales à courte vue et le protectionnisme du droit d’auteur disparaissent. Espérons que, malgré la pourriture des liens, les futurs historiens pourront reconstituer une histoire précise de notre fragile ère numérique.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite