Dans le passé, les règles de base SEO ont fréquemment été chamboulées par les différentes mises à jour de l’algorithme Google. Évidemment, d’autres changements sont à prévoir dans un avenir très rapproché et plusieurs professionnels en référencement font déjà leurs projections sur les nouveaux critères à respecter pour atteindre les prestigieuses premières positions dans le SERP.
Demandez à n’importe quel historien, l’une des meilleures approches pour prévoir les évènements futurs est de regarder en arrière. Les changements déjà effectués par le géant des moteurs de recherches en révèlent beaucoup sur ses priorités. Voilà pourquoi nous vous proposons un petit retour en arrière sur les plus importantes mises à jour de Google.
Panda : Le contenu
Instauré en février 2011, Panda a réécrit complètement la façon de faire du référencement. À partir de ce jour, il était là pour assurer que seulement du contenu de qualité serait affiché sur le moteur de recherche. 12 % des requêtes de recherche ont été affectées par cette mise à jour majeure.
Depuis son implantation, l’algorithme sert de filtre pour empêcher le contenu de basse qualité, les «spams» et tout ce qui est ajouté sans donner de valeur à un site internet. Par exemple, tout contenu dupliqué, plagié ou rempli de fautes d’orthographe se retrouvait extrêmement pénalisé. Comme Google a intégré Panda dans ses mises à jour en continu, de nombreux critères se sont ajoutés au fil du temps et aucune liste exhaustive n’existe.
Penguin : les liens externes
Une fois le contenu corrigé, c’est en avril 2012 que la perturbation suivante est arrivée. En effet, l’algorithme Penguin faisait son apparition. Touchant 2,3 % des requêtes, le but de cette nouvelle mise à jour était de décourager les pratiques non conformes en matière de SEO. Ainsi, Google a commencé à pénaliser sévèrement le «netlinking» et les échanges de liens. De plus, l’accès à des pages différentes pour un robot et pour un humain a commencé à être détecté et pris en compte au niveau du référencement.
Le message de Google était clair, pour être présent dans son SERP, il fallait jouer selon ses règles. Penguin est donc devenu la deuxième police du moteur de recherche, empêchant quiconque d’essayer de contourner les critères instaurés. Il faut simplement s’assurer de vérifier la qualité des sites d’où proviennent vos liens externes d’éliminer ceux qui pourraient vous porter préjudice.
Pirate : Le copyright
Instauré en octobre 2014, la mission de l’algorithme Pirate était simple, s’assurer que les sites référencés ne contenaient rien de piraté. Ce changement a particulièrement affecté les sites de téléchargement frauduleux. Pour éviter d’être pénalisé, il suffit de ne publier que du matériel dont vous êtes le propriétaire, libre de droits ou dont vous avez l’accord de la personne qui possède le copyright.
Hummingbird: le sens d’une recherche
Encore une fois, le géant Google a complètement changé sa façon de référencer les sites internet en implantant Hummingbird en août 2013. À partir de cette mise à jour, une requête sur un moteur de recherche devint bien plus qu’une série de mots-clés. En effet, Google s’est donné comme mission de comprendre l’intention des utilisateurs derrière leur recherche. De cette façon, il s’assurerait de toujours livrer le contenu le plus pertinent possible à ses utilisateurs. De plus, il implantait également une nouvelle structure au SERP, y incorporant des fonctionnalités supplémentaires et des images.
Cette fois-ci, pour rester dans la course et réussir à obtenir des positions de choix dans la page des résultats, il faut connaître votre client. Il vous faut donc trouver les mots-clés exacts qu’il utilise. L’utilisation de la longue traine devient également une tactique très payante. La formulation de mots-clés sonne désormais moins mécanique, plus humaine.
Pigeon : le référencement local
Avec l’arrivée des appareils mobiles, la géolocalisation a fait son apparition. Évidemment, cela entrainait des opportunités incroyables. En juillet 2014, Google fit une mise à jour dont le but était de prendre en considération l’emplacement géographique de l’utilisateur pour lui offrir des résultats encore plus pertinents. Donc, un utilisateur à Paris qui recherche «meilleur restaurant thaï», se fera proposer uniquement des restaurants thaïs situés à Paris même si celui-ci n’a spécifié aucun critère géographique.
Fred : la qualité
Mise en place en Mars 2017, la mise à jour Fred a causé des variations considérables sur le SERP Google. Les sites avec un faible contenu et un abus de publicités ont été déclassés avec violence.