Théories fumeuses, affirmations gratuites, croyances sans fondement :
arrêtez de croire et de faire n’importe quoi en SEO !

Anti SEO

Le SEO : tricherie organisée et concurrence déloyale généralisée

0
(0)

En éliminant la tricherie du SEO pour Google, en rétablissant un marché de la recherche fait de moteurs de recherche aux méthodes différentes, on rendrait de la visibilité à ces entreprises spoliées, et de la liberté de choix aux consommateurs et aux internautes.

Ecrire dans le vide à cause de Google

Le fonctionnement de l’Internet actuel consiste en une grande machine à réduire les citoyens et les petites entreprises au silence.

La théorie voulait que quiconque puisse publier librement. Eh bien, cela n’a pas changé, à une nuance près : tu peux publier ; mais ton texte ne sera jamais lu. Tu peux parler, mais Google fera en sorte que personne ne t’écoute.

Dans ces conditions, on ne saurait parler de liberté d’expression dès lors que des milliards de citoyens sont condamnés à parler dans le vide.

Rappelons les stats :

  • Google monopolise 92% de la recherche mondiale sur Internet
  • Les 3 premiers résultats de Google captent 75% du trafic

En effet, une étude d’Ahrefs montre que 90% des pages web ne captent absolument aucune visite, et que seulement 4% des pages captent plus de 10 visites.

D'après une étude Ahrefs, plus de 90% des pages web n'ont aucun trafic organique depuis Google
D’après une étude Ahrefs, plus de 90% des pages web n’ont aucun trafic organique depuis Google

Autrement dit,

  • 1/ on n’accède au contenu d’Internet que par deux portes d’entrée, toutes deux réservées aux gros producteurs : Google, et les réseaux sociaux
  • 2/ la plus grosse de ces portes ne laisse passer qu’une infime minorité des contenus.

La faute à Google ? Pas seulement, puisque ce sont bel et bien les utilisateurs qui préfèrent faire aveuglément confiance à un stupide programme. La faute, donc, à la situation de monopole de Google, qui élimine les milliards de sites qui ne se classent pas dans les 3 premiers résultats.

Peu conscients des enjeux, les internautes font aveuglément confiance à un seul moteur de recherche… dont les règles partiales conduisent directement à les priver de toute visibilité quand ils tentent de prendre la parole en publiant des articles sur leur site.

Suicidaire sans le savoir, l’internaute lambda creuse lui-même la tombe de ses libertés d’opinion et d’expression.

Google, une information objective et pertinente ?

Dans une conférence Ted assez inintéressante, Larry Page, l’inventeur du PageRank de Google, déclare :

Nous avons la lourde responsabilité de fournir aux personnes la bonne information. Nous nous voyons comme un journal ou comme un magazine fournissant une information très objective. C’est pourquoi nous n’acceptons aucun paiement pour afficher nos résultats. Nous acceptons des paiements pour la publicité et nous la vendons en tant que telle. Contrairement à beaucoup de nos concurrents. Je pense que les décisions de ce type ont un énorme impact sur le monde et cela me rend réellement fier de faire partie de Google.

Comme je l’ai démontré dans le premier article de cette série, à propos de l’innocente requête « chat angora », Google ne délivre aucune info pertinente et objective.

Une information OBJECTIVE ? Larry Page n’a pas dû utiliser Google assez souvent, parce que n’importe quelle recherche démontrera au contraire que Google ne met en avant quasiment que des acteurs intéressés, partiaux et pas du tout objectifs, puisqu’ils n’ont produit les contenus que pour attirer du public et vendre leurs produits et services.

C’est un peu comme si Homère était devenu employé de supermarché et racontait l’Odyssée au micro devant le rayon charcuterie uniquement dans le but de faire passer des gens devant les saucissons en promo.

Des résultats PERTINENTS ? Il ne faut pas chercher trop longtemps pour démontrer le contraire. Très souvent, les premiers résultats apparaissent frauduleux, obsolètes, mensongers, intéressés. Pourquoi se maintiennent-ils en tête, alors ? Tout simplement parce qu’ils étaient déjà en tête. Comme le dit la parabole de l’Évangile de Matthieu : “On ne prête qu’aux riches”.

En effet, puisque 80% internautes ne visitent JAMAIS la deuxième page de Google sur une requête donnée, et puisque 75% des clics se font sur une des 3 premières positions, des millions de pages web n’ont JAMAIS l’occasion de faire leurs preuves, de séduire des lecteurs, d’obtenir des liens et des partages, facteurs de référencement.

Et à l’inverse, dès qu’une daube sans sauce parvient à s’infiltrer dans les premières places, parfois par la tricherie et la ruse (en achetant des backlinks par exemple, ou en manipulant les données avec un PBN), l’inertie et le conformisme des utilisateurs fait qu’elle y reste : la daube obtient du temps de lecture, des liens et des partages qui confirment sa position – sans que la population internautique ait vraiment eu son mot à dire puisque Google ne lui a jamais laissé le choix.

Le SEO pour survivre, ou comment le monopole de Google a généré une concurrence déloyale généralisée

Comment faire alors pour être lu – pour arriver en première page de Google et si possible dans le top 3 ?

Le naïf vous répondra : il suffit de produire du bon contenu. C’est ce que dit Google. En sachant très bien combien c’est faux.

Non, la solution pour arriver en tête est bel et bien le SEO – search-engine optimization ou optimisation pour les moteurs de recherche, donc essentiellement pour Google.

Le référencement non-naturel entraîne un dévoiement de l’écriture web

En effet, dès lors que Google a réussi à prendre une position de monopole dans les années 2000, cette situation a mis fin de facto à la possibilité d’un référencement “naturel”. Le référencement s’est rapidement transformé en une discipline experte d’optimisation artificielle pour plaire aux paramètres secrets de l’algorithme de Google.

Le SEO en effet ne consiste PAS à produire du bon contenu, mais à faire tout autre chose :

  1. à s’efforcer d’en savoir suffisamment sur l’algorithme de Google, logiciel propriétaire bien protégé par le secret industriel
  2. à produire exactement le contenu dans la forme qu’attend Google, ni plus ni moins.

Dès lors, le SEO s’impose comme la première forme d’écriture humaine destinée en priorité à une lecture machinique. Un humain écrivant pour d’autres humains passe dorénavant par le filtre obligatoire d’un programme plus bête que les pieds qu’il n’a pas. Une fraude mondiale aux conséquences culturelles désastreuses puisqu’elle contribue activement à éliminer de la sphère publique les authentiques producteurs de savoir, au profit des tricheurs du SEO intéressé.

L’écriture aux débuts du web était naturelle, authentique, sincère. L’écriture SEO faite pour plaire à Google est artificielle, inauthentique et insincère. Le rédacteur SEO écrit pour ranker, en fonction de ce qu’il sait ou croire savoir sur le fonctionnement très compliqué des nombreux algorithmes de Google.

Cette adaptation de l’écriture aux diktats de Google a conduit à toutes sortes d’aberrations :

  • Dans les années 2000, la grande mode consistait à mentir en masse sur la balise meta keywords : le référenceur attribuait des mots-clés populaires à un article, sans que ces mots aient aucun rapport avec le sujet
  • Autre tricherie en vogue aux débuts du SEO : le keyword-stuffing, ou bourrage de mots-clés : pour se classer en première page des résultats sur un mot-clé donné, on répétait le mot ou l’expression des dizaines de fois, produisant donc un texte horrible à lire, mais qui rankait bien
  • Quand Google a modifié ses algorithmes pour annuler les effets de ces tricheries, le SEO s’est rabattu sur le netlinking. Par principe, Google évalue la qualité d’une page en fonction du nombre et de l’autorité des liens entrants qui pointent vers elle. La même page sur les poissons rouges se classera beaucoup mieux si 100 sites web font des liens vers elle, que si 0 site la recommande. Les référenceurs SEO se sont donc mis à frauder en masse, à créer des centaines de faux sites juste pour créer des liens vers des “money sites”, ou encore à acheter des liens pour duper l’algorithme.
  • Google s’est encore adapté en raffinant la manière dont il évalue la qualité des liens entrants, sans toutefois pouvoir annuler les effets de cette tricherie SEO qui fonctionne toujours.

Après deux décennies de ce jeu du chat et de la souris entre le monopole de Google et les fraudeurs du SEO, le résultat sur des millions de recherche est que la liste des sites qui se classent premiers contient essentiellement des sites qui trichent ou qui ont triché par le passé, et élimine des milliards de sites qui n’ont pas voulu ou pas pu participer à la manipulation géante.

Au final, le SEO a surtout conduit à dégrader l’écriture sur le web, à produire en masse et à faire triompher des contenus faussés, grillant la priorité aux contenus authentiques et leur volant toute visibilité. Être lu sur Internet aujourd’hui est d’abord une question d’argent, pas de talent : un expert SEO se paye dans les 500€ la journée en France. A 20 jours de travail par mois, cela représente un investissement de 10 000€ par mois, un coût qui élimine la grande majorité des entreprises en permettant à une minorité riche de monopoliser l’attention de millions de citoyens et de consommateurs.

L’alternative de Google : soit tu payes, soit tu payes

Pour arriver en première page de Google, Google nous donne deux possibilités :

  • soit on paye Google Ads pour afficher notre pub avant les résultats pseudo “naturels”
  • soit on paye du SEO pour arriver dans les résultats pseudo “naturels”

Car ça fait une bonne vingtaine d’années que les résultats n’ont plus rien de naturel.

Pour qu’une page se classe bien sur un mot-clé, il faut qu’elle respecte une longue série de contraintes techniques et éditoriales. La masse des producteurs de contenus sont des amateurs qui ne se soucient aucunement de ces contraintes – et dont les contenus subissent le sort que Google réserve à tous ceux qui n’optimisent pas : ils se retrouvent dans les 90% de pages web qui ne reçoivent AUCUNE visite, qui ont été écrites POUR RIEN.

Pour respecter les contraintes imposées par l’algorithme, il faut être SEO professionnel ou en payer un.

Être référenceur SEO implique de multiples coûts :

  • un long temps d’apprentissage, qui doit se renouveler en permanence parce que l’algorithme change tous les jours
  • des coûts fixes en termes d’abonnement à des logiciels de SEO professionnels, comme Ahrefs (environ 100€ par mois) ou Semrush, 1.fr ou Yourtext.guru, etc etc (note : j’ai finalement démontré que ces outils ne servent à rien). On en a au minimum pour 200€ par mois soit 2400€ à l’année
  • le prix d’un expert SEO lui-même est estimé à environ 500€ la journée par le site Malt ; 10 000€ par mois, 120 000€ par an.

On constate donc que face à la minorité qui a l’envie, l’intérêt, et les moyens d’investir dans du SEO, la masse des producteurs de contenus, les gens honnêtes qui ne mettent pas leur argent dans la triche, n’ont tout simplement aucune chance.

En gros, tout se passe donc comme si Google organisait une course truquée où 4% des coureurs sont dopés à une came qui coûte 120 000€ / an. Qui va gagner, à votre avis ? Les coureurs honnêtes, ou les dopés ?

L’expert Vs l’expert SEO : qui gagne ? (on le sait d’avance)

Organisons cette course en modèle réduit.

On peut avoir

  • d’un côté un contenu produit par un expert d’un domaine donné, avec clarté, pédagogie et style, toute l’information étant exacte, mais sans se soucier de faire aucun optimisation du texte, des titres, des médias, des balises html, pour satisfaire le bot de Google
  • de l’autre côté un contenu nul, écrit avec le style d’un cochon mort par un imbécile incompétent dans le domaine, mais expert en SEO : avec quelques outils, l’idiot savant pourra optimiser son article, placer les mots-clés partout où la bêtise artificielle de Google aime en trouver, mettre le nombre d’images moyen publiées par la concurrence dans le top 10, etc etc.

Quand Google découvrira ces deux articles, savez-vous ce qui se passera à coup sûr ?

Au final, l’excellent article de l’expert du domaine finira en page 28 là où personne n’ira jamais le cliquer, tandis que la page de l’expert en rien sauf en SEO se classera dans le top 10 là où un public servile et lui aussi incompétent le cliquera avec confiance, croyant naïvement que la firme des multimilliardaires en tee-shirt lui a fourni “le meilleur contenu possible”, alors qu’on lui a refourgué une pub dissimulée.

Qui s’y connaît en nutrition, le nutritionniste ou le marchand qui paye du SEO ? Google a la réponse !

Prenons l’exemple d’un médecin-nutritionniste qui ouvrirait un blog sur la question de la nutrition.

Après 12 ans d’études, dont 9 ans en médecine générale et 3 ans de spécialisation sur la nutrition, tout le monde reconnaîtra sans peine qu’une telle personne connait son sujet.

Mais quel que soit le thème sur lequel ce médecin écrira, ses articles rencontreront la très forte concurrence déloyale de gros sites ayant payé des experts du SEO pour placer leurs contenus en tête de classement et pour les y maintenir.

Ainsi, l’expert en nutrition qui voudrait publier un article critique et sceptique à propos des présumés bienfaits des bactéries probiotiques, ne pourra pas ranker sur le mot “probiotiques”, puisque la première page de Google sur ce mot propose les contenus de :

  • wikipédia
  • passeportsanté, doctissimo, médias commerciaux qui pourtant imposent tous deux un ultimatum “paywall ou consentement aux cookies pub” à l’entrée (ils sont donc en excellente position alors qu’on ne peut même pas lire librement leurs articles : est-ce le genre d’objectivité désintéressée dont parlait Larry Page ?)
  • Vidal, entreprise qui vend des services dans l’information médicale
  • L’INSERM, institution publique, forte grâce à son nom de domaine
  • PiLeJe, un vendeur de probiotiques

Les sites des média Passeportsanté et Que choisir placent certes deux articles sceptiques sur les probiotiques en première page, grâce à leur autorité de domaine, que notre médecin nutritionniste ne saurait concurrencer.

Le point commun de tous ces sites ? Généralistes dotés de gros moyens, il est très probable qu’ils aient tous payé du SEO, soit pour cet article soit pour d’autres.

Bilan : face à une concurrence aussi rude, jamais le médecin nutritionniste, expert en nutrition mais pas en référencement, n’obtiendra de lecteurs depuis Google, aussi bon, aussi vrai, aussi instructif que soit son article. Le nutritionniste expert peut publier mais il ne peut pas être lu. Les marchands d’attention lui grillent systématiquement la priorité, et la régie publicitaire Google, déguisée en moteur de recherche, organise le fait de ne jamais le trouver et ne lui laisse aucune chance d’être lié et partagé, donc de satisfaire à un des critères principaux du classement sur Google : le nombre et l’autorité des liens entrants.

Sur cette requête comme sur des milliards d’autres, on obtiendra les mêmes sortes de résultats. Google ne fait que privilégier les privilégiés, donner du capital aux capitalistes, enrichir les riches. Les individus et les petites entreprises sont balayés d’Internet par les entreprises moyennes et grandes. L’outil censé assurer une liberté d’expression universelle est devenu le porte-voix des puissants, réduisant la grande majorité de la population au silence total.

Google, ou le capitalisme de l’autorité

Dans de nombreux cas, les premières places des résultats de Google sont trustées par des sites qui ont ce profil :

  1. De grands médias, propriétés de milliardaires, propagandistes des pouvoirs officiels.
  2. Des entreprises, qui ne publient sur des thèmes d’intérêt général que parce qu’elles y ont un intérêt caché.

Par exemple, les hébergeurs web Kinsta et Hostinger sont devenus de mini-encyclopédies d’Internet, non pas par passion ou parce que cela relève de leur compétence professionnelle, mais par intérêt économique, parce que ça leur permet de faire connaître leurs offres d’hébergement.

Au lieu de publier sur leur domaine de compétence, l’hébergement, ils vont publier par exemple des articles à propos de plugins WordPress, qui relèvent de MA compétence d’auto-entrepreneur spécialisé en services WordPress : ils viennent donc me voler à la fois du trafic et des revenus, en empiétant sur ma platebande. Leurs articles se classent mieux que les miens, pas forcément parce qu’ils sont meilleurs, mais parce que leur site a plus d’autorité – de liens, que souvent ils ont acheté – ils sont considérablement plus riches qu’un micro-entrepreneur.

Les citoyens, même les intellectuels producteurs de savoirs, et les petits entrepreneurs, n’ont eux quasiment jamais les moyens de produire des contenus suffisamment optimisés en quantité suffisante pour conquérir une large audience. Google ne leur accorde la plupart du temps JAMAIS aucune place en première page sur un quelconque mot-clé même rare.

Chat angora : les milliardaires vont te renseigner !

On sait qu’Internet a deux piliers historiques : les photos de chatte, et les photos de chat.

Sur ce sujet d’apparence innocente, on ne s’attendrait pas à trouver quasi uniquement comme résultats des sites de grands médias capitalistes (Le Monde, Le Figaro, Ouest France), ni des régies publicitaires, ni Vivendi, ni des industriels de la croquette : c’est pourtant ce que Google nous propose en top 10 sur la requête « chat angora ».

Google, moteur de recherche neutre cherchant la pertinence, ou arme du capitalisme attentionnel ?

“meta description”

J’ai cherché ce mot-clé sur Google.

Ahrefs me révèle que 96% du trafic est capté par le premier résultat de Google, qui affiche un “snippet” qui renvoie à un article du Journal Du Net.

Première observation : quand j’arrive sur ce site, il refuse de s’afficher parce que j’ai un bloqueur de pub. Dans mon cas, Google renvoie donc vers un site inutilisable : j’adore. Notre ami Google, tellement soucieux d’objectivité, n’a évidemment pas pensé ni à intégrer un filtre anti-paywall à son algorithme, ni à nous autoriser à exclure ces résultats des résultats de recherche.

Ensuite : l’article du Journal du net sur la meta-description est minuscule, il ne fait que 150 mots.

Surtout, même en si peu de mots ce site présumé expert qui jouit d’un forte autorité (mais qui affiche plus de pub que d’info pertinente sur cette page), raconte n’importe quoi : il compare la meta description à un “en-tête” (induisant un contresens) et affirme que “La meta description est l’un des éléments fondamentaux du référencement d’un site Internet” (ce qui est totalement faux, vu que Google remplace sans nous demander notre avis plus de 60% des meta descriptions…), avant de préciser que… les moteurs ne tiennent pas compte de ses mots-clés.

Bilan : Google renvoie vers une vessie, et des utilisateurs aveuglés s’y précipitent en la prenant pour une lanterne. Au passage, la vessie gagne de l’argent en faisant de la pub ou en revendant les données qu’on lui cède par lassitude ou par ignorance (on clique “accepter les cookies” sans se rendre compte que des dizaines de marchands vont utiliser ces données pour nous cibler puis nous spammer), ce qui lui permet de continuer à faire du SEO pour faire lire des articles parfois indigents.

Google = pertinence minimum, nuisances maximum !

“espaces insécables wordpress”

J’ai googlé ces trois mots et le résultat est pitoyable.

WordPress par défaut massacre les espaces insécables nécessaires en bonne typographie française, or il existe un plugin qui règle ça.

L’intention de recherche des gens qui tapent “espaces insécables wordpress” consiste donc à l’évidence à régler ce problème.

Or Google classe

  • en premier résultat une page où quelqu’un gère le problème à la main, solution ridicule,
  • puis plusieurs articles qui dénoncent le problème sans avoir aucune solution,
  • puis mon propre article… qui renvoie vers le plugin
  • Et le plugin lui-même est classé… 11è, en deuxième page. Il devrait être 1er ou au moins dans les 3 premières places vu qu’il est de loin le résultat le plus pertinent.

Je viens de citer ces exemples au hasard : on pourrait en prendre un milliard d’autres, qui confirmeraient que les résultats de Google ne sont ni particulièrement pertinents ni objectifs.

En quoi Google peut-il prétendre donner des résultats pertinents, dès lors qu’une telle manipulation des résultats par le SEO est non seulement possible, mais actuellement généralisée, pour aboutir à des oligopoles attentionnels ?

Surtout, où est ce forum mondial de la liberté d’expression, cet espace illimité de débat public, condition de base de la démocratie, dès lors que ton blog non-optimisé est voué à n’avoir quasiment aucun lecteur, et que personne ne viendra réagir en commentaire sur un article qui n’a jamais été visité, alors que le site d’un non-expert friqué tiendra le haut du pavé et infligera son non-savoir à un public incompétent pour évaluer l’ampleur de la fraude ?

Les effets pervers de l’autorité du domaine

Parmi les facteurs de classement de Google se trouve la notion d’autorité du nom de domaine.

En gros, ce concept repose sur une idée simple : s’il s’agit de fusées, le site de la NASA est plus compétent que le blog de mon arrière-cousin passionné de fusées en amateur.

Comment sait-on que la NASA a de l’autorité sur ce thème ? Parce qu’on peut compter de nombreux liens pointant vers des pages du site de la NASA et comportant le mot “fusée” ou une de ses variantes et parce qu’on peut compter le nombre et l’autorité des liens qu’avaient ces sites qui font des liens à la NASA. Dans tout cet univers thématique, le site de la NASA a de l’autorité.

Ce concept semble pétri de bon sens, sauf qu’on en voit vite les limites.

D’abord, il a pour conséquence de faire que le même contenu n’ait pas du tout les mêmes chances de diffusion en fonction du nom de domaine sur lequel il est publié.

Par exemple, j’écris un magnifique article sur la lacto-fermentation des fruits : si je le publie sur mon blog, l’article arrive en page 50, n’a aucune audience, 0 lecteur par an ; si je le publie sur un site populaire, Google le classe en première page, lui donne d’office une énorme audience, sans qu’aucune virgule n’ait bougé.

Là encore, où est la pertinence dès lors qu’un même texte peut subir deux destins aussi différents à cause d’un critère qui en réalité n’apparait pas si crucial aux yeux du public humain ?

Google prétend qu’il suffit de publier du bon contenu en sachant très bien que c’est faux : de nombreux facteurs de ses algorithmes introduisent des distorsions en série, qui font qu’au mauvais contenu sur un site bien noté sera toujours plus lu qu’un excellent article sur un site peu connu ou qui débute.

Par ailleurs, on peut observer que les grands médias ont publié d’innombrables fake news. Des chercheurs ont pu faire publier dans les prestigieuses revues Science ou Nature des articles bidons, écrits par de faux auteurs, affirmant des théories grotesques. Mais comme ces sources ont de l’autorité, même leurs contenus les plus saugrenus rankent, alors qu’à l’inverse, de petits sites d’information générale ou scientifique qui ne publient que du bon contenu ne rankent pas – et n’ont jamais l’occasion de faire leurs preuves. L’autorité du domaine, dans ce cas, vient simplement fausser la libre concurrence en donnant un poids écrasant aux vieux de la vieille. Google, faux révolutionnaire et véritable conservateur, verrouille le marché au profit des dinosaures du SEO “Google white hat”.

Un critère d’autorité du domaine décrété par Google est l’ancienneté. Elle conduit à de remarquables aberrations.

Une autre stat d’Ahrefs révèle que moins de 5% des résultats du top 10 de Google viennent de sites âgés de moins d’un an. Autant dire que si Albert Einstein publiait ses articles fondateurs de la théorie de la relativité sur un blog créé dans la journée, le stupide Google mettrait 3 ans avant d’y ramener quelques lecteurs. Niveau innovation, on tombe tellement bas qu’on va trouver du pétrole.

J’ai constaté cet effet absurde récemment : en 2019, j’ai créé un site de décoration sur lequel j’ai écrit une vingtaine d’articles, avant de l’abandonner totalement. Les premiers mois, alors que j’étais actif, les stats étaient plus maigres qu’un phasme anorexique. Deux ans plus tard, sans que j’aie rien fait, le trafic a soudain doublé. Puisque rien n’a changé à part l’âge du site, je suis tenté d’en déduire que le site a en quelque sorte quitté le tunnel de handicap dans lequel Google l’avait enfermé ?

Absurdité totale : rien ne justifie de faire subir un tel critère aux millions de pages Internet qui s’écrivent tous les jours sur des sites récents ; rien ne justifie qu’une entreprise californienne prive l’humanité d’accès à ce qu’elle vient d’écrire sous prétexte que le contenu est “trop frais”.

Pourquoi Google ne fait-il pas primer le contenu seul – ou plutôt, pourquoi faisons-nous confiance à un moteur aussi injuste dont les résultats biaisés reposent sur des choix injustifiables ? Comment pouvons-nous tolérer qu’un seul moteur de recherche impose sa loi et ses règles absurdes et peu honnêtes aux 2 milliards de sites web du monde ?

Mobile-first, ou la priorité donnée à la pauvreté informationnelle

Autre cas de paramètre absurde de l’algorithme de Google, conduisant à un biais de sélection préjudiciable à des millions d’auteurs : Google a décrété depuis 2016 (et confirmé en 2020) que ses résultats devaient donner la priorité aux appareils mobiles.

On aboutit à cette absurdité que, par exemple, toute la littérature romanesque du domaine public obtient de mauvais résultats puisque par définition personne n’a envie de lire un Dostoïevski sur un écran de 5 centimètres de large.

Donc, Google élimine toute culture exigeante produisant des textes longs, de la conscience collective qu’est la partie visitée du web.

Google, parti pour classer des contenus, finit par imposer la lois des appareils, comme si le support était devenu plus important à ses yeux que le message.

Ton super site qui publie de longs articles scientifiques ou littéraires n’est pas optimisé pour la vitesse sur mobile, à cause d’une connerie de CSS ou du poids des images ? Tu disparais de Google ; tu disparais d’Internet ; des crétins avides d’argent remplacent les passionnés, les experts, les artistes, les savants.

Anéantir le SEO

Imaginons maintenant que Google n’a pas disparu, mais que 5 autres moteurs aux approches incomparables apparaissent ou voient leur part de marché grandir.

Une telle situation signerait la fin du SEO – puisque celui-ci n’a de sens que dans le contexte du quasi-monopole de Google. On peut optimiser pour un mystérieux algorithme, il semble difficile et hasardeux d’optimiser pour 6 algorithmes et des centaines ou milliers de facteurs dissemblables voire contradictoires.

A quoi mènerait l’abolition du SEO ? A un retour à une équité dans le traitement des contenus, tout simplement. Au lieu d’écrire pour l’algorithme, dégradant fondamentalement la qualité des contenus, imposant une mécanique étrangère à l’esprit humain, on écrirait à nouveau en langage naturel, sans souci du mot-clé, évitant l’écueil devenu un véritable cancer culturel de la répétition monotone du mot-clé et de ses variantes.

L’exemple de la littérature, ou comment disparaître d’Internet

Pendant des siècles, la littérature a été un des principaux vecteurs de la culture.

A l’ère de l’imprimerie, puis du livre de masse, des livres ont été diffusés à des millions d’exemplaires. C’est par des livres d’école que la plupart des humains qui ont su lire l’ont appris.

Pourtant, aujourd’hui, les règles de Google rendent l’intégralité du patrimoine littéraire inapte à ranker en première page, là où les gens cliquent.

Passons une œuvre du poète Arthur Rimbaud à la moulinette de Google.

L’Eternité

Elle est retrouvée.

Quoi ? – L’Eternité.

C’est la mer allée

Avec le soleil.

Ame sentinelle,

Murmurons l’aveu

De la nuit si nulle

Et du jour en feu.

Des humains suffrages,

Des communs élans

Là tu te dégages

Et voles selon.

Puisque de vous seules,

Braises de satin,

Le Devoir s’exhale

Sans qu’on dise : enfin.

Là pas d’espérance,

Nul orietur.

Science avec patience,

Le supplice est sûr.

Elle est retrouvée.

Quoi ? – L’Eternité.

C’est la mer allée

Avec le soleil.

Pour quels mots-clés ce poème peut-il ranker ?

Réponse : aucun.

Il ne fait que 80 mots et ne serait donc peut-être même pas indexé par Google : « trop court ».

Il répète certes quelques mots, l’éternité, la mer, mais pas suffisamment pour gagner la compétition contre des centaines d’autres textes beaucoup plus longs et optimisés pour ces mots-clés.

Prenons maintenant un des chefs-d’œuvre de Dostoïevski, le roman Les frères Karamazov. Imaginons qu’il ne soit pas déjà très connu, mais qu’au contraire l’auteur le publie aujourd’hui sur un site Internet.

Lui non plus n’est pas optimisé SEO. Il a le problème inverse : des centaines de pages, beaucoup trop de mots différents, donc les calculs googlesques de densité sémantique feront simplement en sorte qu’un tel contenu ne ranke sur rien et ne soit jamais lu. Il ne rankerait pas sur « frères » et personne ne chercherait un mot inconnu, « Karamazov ».

Au fond donc, si ces deux œuvres littéraires n’étaient pas déjà mondialement connues, personne ne les trouverait sur Google parce que personne ne les chercherait.

Si elles étaient publiées aujourd’hui par un inconnu sur Internet, Google ne les afficherait absolument jamais ; et de même avec tout le patrimoine littéraire du monde entier, pas assez “optimisé SEO”.

La suite

Article suivant :

Pourquoi et comment éliminer Google et le SEO

Qu'avez-vous pensé de cet article ?

Cliquez sur une étoile pour donner votre avis

Avis moyen 0 / 5. Nombre d'avis donnés 0

Soyez le premier à donner votre avis

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Besoin d’un hébergeur ?

Convivial, sympa, fiable, et pas cher,
O2Switch me semble être la meilleure offre actuellement sur le marché français.
C’est pourquoi j’y héberge tous mes sites.

Hébergement O2Switch
Hébergement O2Switch
Panier
Retour en haut