Blog WordPress
Algorithme de Google

Liste des algorithmes de Google, de 1998 à 2022

4.7
(9)

L’algorithme au cœur de Google et des moteurs de recherche

En mathématiques, un algorithme est une série d’opérations effectuées pour résoudre un problème ou réaliser un calcul.

Les moteurs de recherche ont développé des algorithmes pour résoudre le problème du classement des milliards de pages web par pertinence, en fonction des mots tapés ou prononcés par l’utilisateur.

Le moteur de recherche Google ne compte pas un mais des dizaines d’algorithmes, dont l’algorithme principale, le « core » (cœur, noyau) et d’autres qui traitent de problèmes spécifiques. Ces algorithmes connaissent des centaines de mises à jour chaque année, qui sont parfois intégrées au core.

Certaines de ces “Core Updates” (mises à jour majeures du cœur de l’algorithme) entraînent des chamboulements dans les classements et les résultats de recherche, d’autres sont mineures et passent inaperçues.

Le core de l’algorithme de Google s’est entre autres basé sur le PageRank de Larry Page. 

Le crawl et l’indexation

Avant d’effectuer un classement des sites présentés dans des résultats de recherche sur une requête donnée contenant des mots-clés, Google doit d’abord réaliser une indexation du web.

Pour cela, il utilise des programmes, appelés bots ou robots, crawlers et spiders, chargés de surfer en permanence sur le web, de découvrir les nouvelles pages web, et de mettre à jour celles qu’il connait déjà.

Le crawler d’indexation de Google s’appelle Googlebot.

Le web étant immense, aucun moteur de recherche n’est capable de l’indexer en entier tous les jours. Google attribue donc à chaque site un « budget crawl » en fonction de sa popularité et de ses performances. Tel site sera crawlé tant de fois par mois. Ce budget explique pourquoi l’indexation prend du temps et pourtant certains pages mettent des semaines avant d’apparaitre sur les pages de résultats de Google.

Le PageRank (1998)

Inventé par le co-fondateur de Google Larry Page sur la base de recherches antérieures, le Page Rank est une méthode de classement des pages web en fonction du nombre de liens pointant vers elles.

Principes du PageRank

Le PageRank (PR) repose sur le principe du surfeur aléatoire et sa valeur dépend du nombre de liens qui pointent vers un contenu – page web, image, vidéo etc.

Le surfeur aléatoire part de n’importe quel point du web et suite des liens au hasard.

Si une page a peu de liens entrants, elle reçoit peu souvent la visite du surfeur aléatoire et son PageRank est faible.

Si une page a beaucoup de liens entrants, elle reçoit souvent la visite du surfeur aléatoire et son PageRank est élevé.

Ceci a pour conséquence que la valeur d’un lien dépend du PageRank de la page émettrice : plus il est élevé, plus haute est la valeur du jus de lien qu’elle transmet à la page réceptrice.

Algorithme PageRank de Larry Page
Algorithme PageRank de Larry Page

Ainsi le PageRank apparait comme une mesure de la centralité d’un contenu sur le réseau Internet : plus un contenu est relié au reste du web, plus il est central.

Le moteur de recherche Google valide cette centralité en classant les pages web et les autres contenus en fonction de leur PageRank.

PageRank thématique

Le monde du SEO pense aujourd’hui que le PageRank s’est affiné pour inclure une composante sémantique et thématique.

En effet, si un garage recommande un coiffeur, cela semble par nature moins pertinent que si un expert de la coiffure recommande un coiffeur. Donc des pages ayant le même PageRank n’ont pas forcément le même poids thématique.

Nofollow

Entre 2005 et 2009, l’attribut de lien nofollow, qui sert à indiquer à Google qu’un webmaster ne souhaite pas que le lien en nofollow soit suivi par le bot d’indexation, a servi à manipuler l’algorithme, en mettant certains contenus en nofollow pour augmenter le poids de certains liens donc de certaines pages.

En 2009, Google a donc décidé d’empêcher ces manipulations : il tient compte de tous les liens, et les liens en nofollow ne passent aucun jus de lien, leur valeur est purement et simplement annulée.

Pour en savoir plus :

Quand faut-il mettre un lien en nofollow ?

Secret industriel

Depuis 2016, pour éviter les fraudes et manipulations, Google ne donne plus d’informations au sujet du PageRank des pages web.

Même si certaines parties en ont été dévoilées, le PageRank est protégé par le secret industriel, de sorte qu’il est impossible de connaître son fonctionnement dans le détail, ainsi que ses évolutions.

Méfiez-vous donc des faux experts qui prétendent connaitre les secrets de Google.

Voici maintenant la liste des principaux algorithmes de Google qui font trembler la communauté SEO :

Caffeine (2010)

Google Caffeine
Google Caffeine

La mise à jour Caffeine ne concernait pas l’algorithme de Google mais sa manière d’indexer le web. L’index de Google n’était plus capable de gérer correctement la taille du web, qui avait décuplé en 10 ans.

Caffeine a donc changé la méthode d’indexation pour favoriser l’indexation des contenus frais, récents, notamment pour répondre aux recherches des internautes sur des sujets d’actualité.

L’ex-expert de Google Matt Cutts avait publié un article de blog pour répondre aux interrogations concernant Caffeine.

Panda (2011)

Google Panda
Google Panda

Panda filtre, déclasse ou bannit des sites qu’il juge de piètre qualité, pauvres en contenus et créés à des fins de tromperie de l’utilisateur ou de l’algorithme, ou à des fins de spam.

A partir de 2016, Panda a été intégré à l’algorithme de Google.

Top heavy (2012)

Top heavy filtre les sites qui abusent de publicité « above the fold », au-dessus de la ligne de flottaison, c’est à dire dans le premier écran visible d’une page.

Pirate (2012)

Pirate déclasse ou désindexe des sites web qui enfreignent le droit américain de la propriété intellectuelle (DMCA : Digital Millennium Copyright Act) – par exemple des sites de streaming ou de téléchargement illégal.

Les sites ayant fait l’objet de plaintes sont signalés au bas des résultats de recherche.

Sanction Pirate pour infraction DMCA
Sanction Pirate pour infraction DMCA

Penguin (2012)

Google Penguin
Google Penguin

Penguin filtre les sites Internet qui transgressent les règles (“guidelines”) édictées par Google concernant les liens entrants (backlinks), notamment tous les référenceurs qui utilisent des techniques de netlinking en mode “Black hat SEO” pour tromper l’algorithme et manipuler le PageRank en créant des liens artificiels.

Les liens artificiels entraînent des sanctions et des pénalités automatiques ou manuelles. Google considère qu’un lien est artificiel quand il est généré par des fermes de contenu, des campagnes d’achat de liens (dont Google ordonne le signalement avec l’attribut « sponsored »), voire par la pratique malveillante du SEO négatif (quand un concurrent ou un tiers fait des liens toxiques vers un site web pour qu’il soit sanctionné et déclassé).

A partir de 2016, Penguin a été intégré à l’algorithme de Google.

Exact Match Domain (2012)

Exact match domain signifie correspondance exacte de domaine.

Ce terme désigne le cas où un nom de domaine correspond exactement à une requête tapée par l’internaute dans un moteur de recherche.

Cette correspondance permettait à un site web de bien se classer en adoptant comme nom de domaine un mot-clé populaire.

Par exemple, le mot-clé « acheter appartement Paris » correspondait exactement à un nom de domaine acheter-appartement-paris.fr.

Depuis cette mise à jour, cette stratégie ne fonctionne plus.

Payday loan (2013)

Ce filtre vise à éliminer des résultats les sites spammy dans des secteurs fortement sujets à des fraudes SEO comme les casinos, les jeux en ligne, le XXX / contenus pour adultes, les sites de crédit et micro-finance, etc.

Hummingbird / Colibri (2013)

Google Hummingbird Colibri
Google Hummingbird Colibri

Hummingbird, appelé Colibri en français, change la manière dont Google interprète les requêtes, en faisant une compréhension plus globale qu’au ras des mots clés comme précédemment.

Hummingbird se montre également plus sensible aux intentions de recherche (qu’il peut évaluer grâce à ses archives montrant la corrélation entre les requêtes et les comportements des utilisateurs).

Hummingbird est le plus gros changement du fonctionnement de Google depuis 2001.

Pigeon (2014)

Pigeon représente une amélioration des résultats quand la recherche est localisée : Google prend en compte la localisation de l’utilisateur et centre ses résultats sur cette localisation ou alentour.

Ainsi l’internaute qui tape « boulangerie près de chez moi » et dont Google sait qu’il vit à Nantes se voit proposer des boulangeries nantaises.

Phantom (2015)

Phantom est un filtre visant à éliminer ou déclasser les pages pauvres en contenu, trop portées sur la pub, ou dysfonctionnelles.

RankBrain (2015)

Google RankBrain
Google RankBrain

Rank Brain, basé sur une intelligence artificielle alimentée par du machin-learning, s’ajoute à Hummingbird et cherche à mieux comprendre l’intention de recherche derrière les mots-clés de la requête.

Il permet de rendre synonymes des requêtes formulées avec des mots différents.

Mobile First / Mobile Friendly (2015)

Comme son nom l’indique, cet algorithme sert à donner la priorité aux pages web optimisées pour le trafic mobile devenu majoritaire : responsive design et vitesse de chargement performante. Elles se classent mieux dans les résultats sur mobile quand elles sont optimisées pour mobile.

Les sites qui n’ont pas de version mobile restent indexés mais ne s’affichent sur la SERP (page des résultats) que sur ordinateur.

Possum (2016)

Possum / Opossum améliore la pertinence des résultats locaux en élargissant la zone des résultats et en améliorant le “pack local”, sélection de sites commerciaux mis en avant dans les résultats de recherche.

Fred (2017)

Comme Penguin et Phantom, Fred a pour vocation de pénaliser les sites spammy, abusivement publicitaires ou fraudeurs.

Medic Update (2018)

Google Medic Update
Google Medic Update

Cette mise à jour du Core de Google (core update) a concerné tout le web mais en particulier les sites sensibles de type YMYL (Your Money Your Life, la bourse ou la vie) : médecine, sécurité, finance, e-commerce… Elle a eu un très fort impact sur le trafic organique des sites médicaux, d’où son surnom « medic update », mise à jour médicale.

Google cherche sur ces sites des signaux de qualité et de sérieux, avec un auteur expert, des coordonnées vérifiables (adresse email, numéro de téléphone, adresse physique, numéro SIRET) , des informations cohérentes avec celles qu’on peut trouver sur le web à propos d’une personne ou d’une organisation, des preuves d’autorité (fiche Wikipédia, profil LinkedIn ou Twitter, mentions sur des sites professionnels dans la même thématique, etc).

Des employés de Google en sous-traitance, les Search Quality Raters, évaluateurs de qualité de recherche, classent les secteurs sensibles.

Les critères sont E-A-T : Expertise-Authority-Trustworthiness, expertise, autorité, confiance.

Ainsi chaque entreprise doit s’efforcer de donner au public un maximum d’informations crédibles pour garantir son autorité et inspirer confiance, aux humains autant qu’aux robots.

Pour en savoir plus et améliorer le référencement de votre site médical :

Ce qu’a changé la Medic Update de l’algorithme de Google pour les sites médicaux

June 2019 Core Update

Cette mise à jour du core de l’algorithme de Google renforce les critères de qualité :

  • vitesse de chargement des pages
  • qualité de la navigation
  • autorité du site sur la thématique de la requête
  • protocole https
  • responsive design / mobile-friendly

September 2019 Core Update

Décidément, Google a passé une année 2019 très agitée. Cette fois-ci, il a mis à jour le core pour renforcer les critères E-A-T, ce qui a une fois de plus bouleversé la communauté SEO dans les secteurs les plus sensibles, notamment les sites liés à l’argent : finance, banque, prêt, crédit.

Site Diversity Update (2019)

Cette mise à jour empêche que plusieurs pages d’un même site apparaissent sur la page des résultats de recherche, favorisant donc la concurrence entre les sites Internet.

BERT (2019)

Google BERT AI
Google BERT AI

BERT, acronyme de l’anglais Bidirectional Encoder Representations from Transformers, représente un progrès de l’intelligence artificielle dans le traitement du langage naturel (NLP, natural language processing), pour mieux comprendre l’intention de recherche.

La montée en puissance des assistants vocaux  (Alexa, Cortana, Siri, Google Home) a en effet beaucoup allongé la longueur moyenne des requêtes, les gens qui parlent ne cherchent pas “recette tarte pommes” mais “quelle est la recette de la tarte aux pommes”.

May 2020 Core Update

Cette mise à jour a poursuivi l’effort de compréhension de l’intention de recherche par l’algorithme de Google, a diminué l’impact de certains liens entrants (backlinks) acquis d’une manière artificielle, et redonné un peu d’espoir à des sites YMYL ayant peu d’autorité mais parlant bien de la vie réelle.

December 2020 Core Update

Google a continué sur sa lancée avec ce déploiement de nouveaux critères pour favoriser la qualité des sites : qualité des contenus, performance technique, ergonomie et navigation, expérience utilisateur.

Page Experience / Core Web Vitals (2021)

Cette mise à jour de l’algorithme de Google met l’accent sur les métriques de l’expérience utilisateur (UX / UI) : le temps de chargement, le côté mobile-friendly, le respect du protocole https, les notes de performance Core Web Vitals.

Google Page Experience Update for Desktop (Janvier 2022)

Cette mise à jour est centrée sur l’expérience utilisateur sur desktop. Elle inclut de nombreux facteurs de classement similaires à ceux de la mise à jour de l’expérience de page pour mobile lancée en 2021. Les facteurs de classement de l’expérience de page sur desktop comprennent :

  • Core Web Vitals (LCP + CLS + FID)
  • Sécurité HTTPS
  • Absence d’interstitiels intrusifs

Si un site web ne répond pas à ces critères, il ne bénéficiera pas de l’amélioration du classement de l’expérience de page sur desktop.

Cela ne signifie pas que le site est pénalisé pour ne pas respecter les critères de l’expérience de page de Google, mais plutôt que les sites respectant ces critères pourraient se classer au-dessus, faisant ainsi baisser le classement de vos pages.

L’amélioration de votre score d’expérience de page peut donc vous aider à récupérer ces positions de classement et à rester compétitif​ (source​).

Google Page Experience Update for Desktop (Janvier, Février 2022)

Cette mise à jour concerne les paramètres non liés au contenu qui contribuent à l’expérience de l’utilisateur sur une page. Elle comprend les « core web vitals », un ensemble de mesures pour évaluer l’expérience de l’utilisateur. Ces mesures comprennent la performance de chargement, la réactivité à l’entrée de l’utilisateur, la stabilité de la mise en page et le premier délai d’entrée. Il est également recommandé de vérifier la compatibilité de votre site avec les écrans mobiles et la sécurité de votre connexion, car Google intègre les signaux de vitesse de page dans ses algorithmes de classement

Google Product Review Updates (Mars, Juillet, Septembre 2022)

Les trois mises à jour de l’algorithme de revue de produits ciblent le contenu écrit sur les produits.

Google cherche à éliminer les informations sur les produits qu’il juge de faible qualité parce qu’elles

  • n’affichent pas de connaissances expertes ou d’informations originales,
  • ne montrent pas à quoi ressemble physiquement le produit et comment un client est censé utiliser le produit,
  • n’expliquent pas visuellement le produit sous forme de vidéos tutoriels ou d’images,
  • et n’incluent pas plusieurs vendeurs afin qu’un lecteur ait le choix de chez qui il veut acheter.

L’objectif est que les sites de revue de produits améliorent l’expérience d’achat de l’utilisateur grâce aux meilleures pratiques que Google a élaborées lors de multiples mises à jour.

Google Search Core Updates (Mai, Septembre 2022)

Ce sont des modifications générales des algorithmes de recherche de Google qui peuvent avoir un impact sur de nombreux sites.

Ces mises à jour ne ciblent pas des sites ou des pratiques spécifiques comme le spam ou les mises à jour des revues de produits, elles se concentrent sur les paramètres d’évaluation du contenu que Google utilise pour déterminer la pertinence et comment elles peuvent classer les pages dans les résultats de recherche.

Il est recommandé de passer en revue le contenu de votre site pour s’assurer qu’il répond à l’intention de recherche de l’utilisateur.

Google Helpful Content Update (Août 2022)

Cette mise à jour de l’algorithme de Google stipule que les sites ne doivent pas utiliser de contenu inutile ou non pertinent.

Il est donc important d’optimiser le contenu de votre site pour qu’il soit toujours utile et pertinent pour l’utilisateur. Si vous avez beaucoup de contenu qui ne ranke pas, de toute façon il ne vous sert à rien donc éliminez-le.

Qu'avez-vous pensé de cet article ?

Cliquez sur une étoile pour donner votre avis

Avis moyen 4.7 / 5. Nombre d'avis donnés 9

Soyez le premier à donner votre avis

Offres de référencement naturel / SEO

Votre site manque de trafic ?

Vous avez besoin d’un audit SEO complet : on-page, on-site et off-site.

J’analyse la situation de votre site, je diagnostique ses problèmes et je vous propose des solutions.

  • Netlinking acquisition de liens
  • Audit SEO complet
  • Audit SEO complet
  • Strategie editoriale seo
  • audit SEO on page
  • audit SEO on site

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Besoin d’un hébergeur ?

Convivial, sympa, fiable, et pas cher,
O2Switch me semble être la meilleure offre actuellement sur le marché français.
C’est pourquoi j’y héberge tous mes sites.

Hébergement O2Switch
Hébergement O2Switch

Théories fumeuses, affirmations gratuites, croyances sans fondement :
arrêtez de croire et de faire n’importe quoi en SEO !

Panier
Retour en haut