L’algorithme Google est un ensemble de formules mathématiques, mises à jour régulièrement, qui permet de réaliser un classement des pages des sites internet mondiaux à chaque fois qu’un internaute effectue une recherche. Pour chaque requête effectuée sur le moteur de recherche Google, ce dernier propose des résultats classés selon leur pertinence. Le 1er résultat indiqué est celui considéré par Google comme le plus pertinent, c’est-à-dire celui apportant les meilleures informations par rapport à la requête établie. Pour hiérarchiser cet ensemble de résultats et pour une requête donnée, l’algorithme Google se base sur des centaines de critères différents.
Le référencement naturel sera donc optimal s’il s’approche au mieux de ces critères. L’algorithme Google évoluant en permanence, il est nécessaire d’être toujours en veille pour suivre les modifications et les changements de son index.
les changements algorithmiques peuvent se présenter sous différentes formes :
Site e commerce ou vitrine, il est primordial d’assurer sa notoriété et de se positionner sur la première page Google. Les contenus et les liens entrants sur votre site web sont des piliers du SEO, à condition que votre approche éditoriale et de netlinking soit en phase avec les algorithmes Google.
Les algorithmes visent à trier statistiquement des contenus, liens, sur des questions ciblées en s’appuyant sur toutes les données collectées par les différents bots qui procèdent au crawl des différentes pages de votre site internet. Certains “algos” ont pour but de classer l’information, tandis que d’autres ont vocation à détecter des méthodes SEO non acceptables par le moteur de recherche et leur appliquer une ou des pénalités Google. Ici, vous découvrirez les principaux algorithmes à prendre en compte pour optimiser un site et éviter la pénalisation. Vous pouvez également échanger avec nos consultants SEO.
Initialement il s’agissait d’un filtre Google Penguin qui visait à lutter contre certaines techniques de spam dites SEO black hat. Plus précisément, les abus en termes d’utilisation de mots clef « keyword stuffing », de cloaking (présenter un contenu différent selon que le visiteur soit un GoogleBot ou un réel utilisateur) ou encore de netlinking (un trop grand nombre de liens entrants superficiels et d’ancres exactes) et de contenus volontairement dupliqués (vol de contenus, plagiat).
C’est particulièrement délicat, car cette pénalité s’applique à l’échelle d’une page et non d’un site comme l’a fait Google Panda. La page pénalisée est toujours indexée, mais elle perd sa visibilité, son trafic. C’est en faisant un relevé des positions fréquent de vos expressions et de vos URL que vous pourrez détecter facilement ce type de problématiques. Il vous faudra suivre également attentivement vos backlinks. L’outil minimal est la Search Console intégrée à Google Analytics et l’utilisation d’un outil de suivi de liens (onéreux), ou des outils spécifiques développés par des experts SEO dans des agences de référencement naturel.
Les préconisations liées à Google Panda figurent parmi les plus importantes et se concentrent principalement sur la qualité du contenu. Le duplicate content (duplication volontaire), le plagiat ou le spinning content (texte généré automatiquement en paraphrasant un texte source), sont autant de techniques visant à multiplier la quantité de pages web indexées de manière artificielle.
C’est ce genre de pratiques qui sont traquées par le Panda, et ce depuis 2011. Panda, à l’origine uniquement un filtre, a été intégré dans l’algorithme de Google, il est en fréquente mise à jour, à minima 1 fois par semaine en moyenne au cours des 3 dernières années. La réponse à Panda : des contenus intelligibles, sans répétitions inutiles, des contenus uniques, une richesse sémantique et lexicale…
Panda touche toutes ou une seule partie d’un site. Si vous avez mis en œuvre une rubrique reposant sur des contenus dupliqués toutes ces pages ne sont plus visibles dans Google… Là encore il vous faudra vous armer de la Search Console, de Google Analytics et une certaine expertise SEO.
Google Pigeon est une mise à jour de l’algorithme Google qui cible la qualité du référencement local, sur Google Maps mais également dans les résultats classiques. Le but : rendre la recherche Google et les premiers résultats plus pertinents. Par exemple pour une requête type « agence de référencement naturel Lyon ». Grand nombre de référenceurs SEO ont dû changer leur stratégie de référencement locale en conséquence. Les noms de domaine, l’adresse des entreprises (qui doit être accessible et micro formatée dans les pages) ainsi que la notoriété et la puissance des backlinks locaux pèsent dans la balance.
Google Colibri, ne pas confondre avec Rank Brain (machine learning embarqué dans Colibri), est un algorithme qui a pour objectif de mieux interpréter la requête de l’internaute afin d’accroître la pertinence des résultats sur la SERP grâce à l’apprentissage de l’intelligence artificielle (le sens des mots, les expressions, les synonymes, entre autres). Pour un meilleur référencement, l'expérience utilisateur représente un réel facteur qualitatif tout comme le choix des mots clefs. Cet algorithme a introduit la notion de moteur de “réponses”.
Faites appel à notre agence de marketing numérique, nous disposons d'un pôle d'experts expérimentés dans leur domaine pour fluidifier vos projets web.
Prendre un rendez-vous de 20 min avec un expert