Qu’est-ce-que l’algorithme de Google ?

2018-05-17T15:56:24+00:0027 avril 2017|SEO|

Il n’y a pas algorithme de Google mais tout un bestiaire :  Panda, Pingouin, Pigeon, Colibri, … Sans compter Fred qui est sorti au mois de mars 2017 : mais est-il un algorithme ? Quelle est la mission des principaux algorithmes ?  Comment faire en sorte d’être bien vu par ces petites bêtes ?

Comment ça marche le référencement naturel ?

  1. Les moteurs de Google visitent toutes les pages du Web. Ils passent de page en page en surfant sur les hyperliens comme le ferait un internaute.
  2. Google enregistre tous les contenus des pages. Il les trie en fonction des mots de chaque page. C’est l’indexation.
  3. L’algorithme de Google entre en action pour noter chaque page en fonction de son contenu, de sa notoriété et de sa qualité technique.
  4. Ils affichent tous les résultats correspondant à la requête des internautes mais en mettant en premiers les pages les plus pertinentes.

Quelle est la mission de tous ces algorithmes ?

Pour les utilisateurs comme pour les référenceurs, les algorithmes de Google sont une grosse boite noire qui sert à indexer l’ensemble des pages du web pour répondre au mieux et très rapidement (en un clin d’œil) aux requêtes des internautes.
En fait chaque algorithme de Google a un rôle bien particulier :

L’algorithme Panda

Il s’agit là, du plus vieil algorithme de Google. Sorti en février 2011, seulement pour les requêtes en anglais, ensuite il a englobé toutes les langues et tous les pays. À ses débuts, plusieurs sites de qualité ont été touchés par le nouveau filtre Panda. Il est le principal algo de Google. Sa mission essentielle est l’inspection de la qualité du contenu des pages elles-mêmes. Un algorithme puissant qui va aussi évaluer le comportement des internautes.

La clé de la réussite de votre site web : un contenu de haute qualité et avec une touche d’originalité.

L’algorithme Pingouin (Penguin)

Depuis 2012, l’algorithme Penguin est l’algorithme de la notoriété des sites mais aussi des pages. Il s’agit d’évaluer de manière quantitative et qualitative les liens pointant vers le site. Sa dernière mise à jour officielle en 2016 renforce l’aspect qualitatif sur l’aspect quantitatif.

Recommandation : le mieux est de faire des liens de qualité en provenance de site de même thématique et de notoriété élevé.

L’algorithme Colibri (Hummingbird)

Officialisé en septembre 2013, cet algorithme est en rapport avec la recherche sémantique. Google cherche à comprendre ce que recherche l’internaute et lui fournir une page qui corresponde à sa demande.

Exemple : un utilisateur tape la requête : SEA
Est ce qu’il s’agit d’un internaute cherchant des renseignements sur le référencement payant ? Ou un anglophone recherchant des info sur la mer ?
Google ne se base plus uniquement sur le SEA, il va chercher dans le contenu de la page des mots qui vont l’aider à préciser si la page parle de la mer ou des annonces publicitaires dans les moteurs de recherche.

Ainsi, nous vous conseillons de faire un contenu pertinent sans bourrer votre page de votre mot clé. Attirez donc l’intérêt des internautes et écrivez votre contenu en mettant en avant le mot-clé puis des synonymes et des mots connexes afin que Google puisse mieux appréhender le contenu.
Plus c’est long mieux c’est, car il y aura plus de mots. De ce fait, Google est pratiquement sûr de ne pas se tromper sur les deux volets : le contenu indexé mais aussi la requête de l’internaute.

Les algorithmes pour le référencement local Pigeon et Opossum (Possum)

En France depuis 2015, Pigeon se charge de recenser le classement des résultats locaux. Opossum  est, lui, apparu en septembre 2016, ce dernier a plusieurs impacts sur le référencement local : il tient compte de la position de l’internaute (mobinaute), une page très pertinente mais qui ne se situe pas dans le périmètre de la ville pourra être affichée, un site ne peut plus apparaître sur la map et dans les résultats naturel (c’est l’un ou l’autre).
Simple directive : Si vous avez un local, nous vous suggérons de créer une page Google business afin d’être présent dans la map de Google.

Les autres algorithmes

Il existe bien d’autres algorithmes de Google tel que RANKBRAIN, qui a recours à l’intelligence artificielle.  Google a aussi infiltré dans son algorithme l’apprentissage automatique (machine learning). Ainsi, il essaie de répondre, au mieux, aux requêtes compliquées saisies par les internautes. Cet algo travaille, principalement, sur les requêtes qui n’ont jamais été tapées auparavant. La firme de MountainView a donné un chiffre en 2013. Le pourcentage de nouvelles recherches s’élève,chaque jour, à 15%. Selon Google, optimiser pour RANKBRAIN, n’est même pas envisageable.

Google pénalise les pages pauvres en contenu ou bien ayant des contenus quasiment dupliqués. Appelé, Pages satellites, cet algorithme a été annoncé en mai 2015, visant notamment les sites satellites. On ne connaît toujours pas la répercussion de cet algorithme, si cela va être au niveau des pages et des sites. La chronologie des mises à jour reste aussi méconnue.

Le dernier en date est Phantom 5 ou « Quality Update », sorti en février 2017, d’autres mises à jour liées à la qualité sont en principe en vue. De même que Panda, cet algo vise aussi à juger de la qualité des pages et/ou des sites. Certaines analyses effectuées, déclarent qu’il fonctionne par rubriques du site. Sauf que pour Phantom, Google n’a pas spécifié le genre d’éléments sur lesquels il se base, ni même des informations sur la réitération des mises à jour.

FRED n’est pas franchement un algorithme de Google

Le 8 mars 2017, les webmasters ont constaté une grande volatilité dans les SERP. cela a commencé à donner des pénalités aux sites qui sont submergés de publicité. Puis d’autres mises à jour ont suivi concernant surtout le Black Hat SEO. Fred, le copain de Pingouin était né, luttant ensemble contre le spam.

Google Fred : pourquoi cette appellation ?
Ce nom adopté nouvellement est l’œuvre de Gary Illyes, Webmaster Trends Analyst chez Google, qui a notamment confirmé trois mises à jour quotidiennes en moyenne en déclarant que toutes celles qui suivront porteront elles aussi le même nom.

Compatibilité mobile et index mobile first

Depuis mai 2016, la priorité est donnée à la version mobile d’un site. En effet, Google favorise les sites qui sont compatible mobile. Un internaute surfant sur son Smartphone, quand il entre une requête, il verra apparaître la version de la page mobile. Chaque site «Mobile-Friendly», se fera attribuer un bonus de la part de Google. Effectivement, l’index principal est celui établit par le robot mobile. Viendra ensuite celui de l’index secondaire constitué par le robot desktop. En résumé, si une page est compatible mobile, elle sera donc privilégiée dans les recherches mobiles alors que celle qui ne l’est pas aura forcément un désavantage en matière de positionnement. Par conséquent, ça fonctionne page par page. Mais faites attention, à ne pas tomber dans la confusion, dans la pratique un seul index existe, le mobile passe en premier puis vient le desktop.

Comment faire en sorte d’être bien vu par ces petites bêtes ?

Pour faire court, voici quelques recommandations pour faire en sorte de ne pas être pénalisé et bien se positionner :

  1. Optez pour un contenu de qualité et bien structuré, sans avoir recours aux pratiques « artificielles ». En favorisant des liens entre les différentes pages de votre site ayant des contenus voisins. Sachez aussi qu’il y a une pénalité depuis début mai 2015, qui concerne les pages satellites.
  2. Selon Google qui déclare être passé à un index « mobile first », il est important que votre site soit compatible mobile.
  3. N’importunez pas les internautes qui arrivent de Google avec des pop-up ou une bannière interstitielle intrusive. En effet, cela va troubler la lecture du contenu.
  4. Une gratification sera attribuée aux sites qui utilisent le protocole HTTPS mais la conséquence en SEO est faible.