Google durcit ses algorithmes de référencement

Google durcit ses algorithmes de référencement

La dure voie du référencement naturel

Le référencement est apparu en même temps que les tous premiers moteurs de recherche. Depuis cette période, les techniques de référencement n’ont eu de cesse d’évoluer à mesure que les moteurs de recherche gagnaient en pertinence. Leur but étant de proposer aux internautes le contenu le plus juste qui soit, les ingénieurs créant les algorithmes ont mis en place des critères de plus en plus sévères.

Ces nouveaux algorithmes ont pour but de pénaliser les sites des webmasters ayant pratiqué le référencement black hat, autrement dit, des techniques de référencement peu conventionnelles, qui à terme, peuvent anéantir tout le référencement d’un site internet.

Panda et Penguin : les deux algorithmes de Google

Google, qui domine à 95 % le marché du moteur de recherche en France, a créé Panda et Penguin. Il s’agit de deux algorithmes qui ne cessent, depuis leur naissance, de s’améliorer et d’élargir leurs critères dans un objectif commun : faire la chasse au mauvais référencement naturel. En revanche, si leur but est le même ils ont tous deux une particularité :

  • Google Panda : il évalue la qualité des sites au niveau de leur contenu.
  • Google Penguin : cet algorithme s’intéresse aux techniques de référencement employées, notamment pour le netlinking. Son but est de repérer les backlinks factices et de pénaliser les sites dont le netlinking est suroptimisé.

Google Panda

Histoire de l’algorithme Panda

Au printemps 2011, a eu lieu une révolution majeure dans le domaine du référencement. Google Panda est arrivé afin de cibler tout particulièrement les fermes de contenus, les  scrappers (sites copiant le contenu d’autres sites) ou les sites intermédiaires tels que les annuaires d’entreprises ou les comparateurs de prix. Beaucoup de sites ont souffert de cet algorithme et certains ont perdu plusieurs dizaines de pourcent en référencement Google.

A cette époque, Google Panda ne concernait encore que la langue anglaise, aujourd’hui il s’est adapté à toutes les langues du web.

Une dizaine de mises à jour ont été faites jusqu’à mars 2013 où Panda a officiellement été intégré à l’algortihme de Google. Avec ce changement, Google n’annonce désormais plus toutes les modifications qu’il y apporte. La dernière mise à jour, Panda 27, a eu lieu le 18 juillet. Les référenceurs doivent donc se méfier des prochaines à venir.

Critères du référencement naturel

Plusieurs critères sont à respecter pour ne pas que son site souffre du passage de Google Panda :

  • Le site doit posséder un contenu de qualité, rédigé pour les internautes et non pour les moteurs de recherche.
  • Le contenu doit toujours être unique et ne pas être dupliqué sur d’autres sites.
  • Si l’on souhaite faire augmenter le page rank d’une page, il est nécessaire que celle-ci contienne du bon contenu.

Alors, pour avoir de bonnes positions sur Google avec Panda, une seule chose à faire : sortir sa plus belle plume.

Google Penguin

Histoire de l’algorithme Penguin

La première mise à jour de Google Penguin a eu lieu en mai 2012. Mais depuis le 22 mai 2013, un changement majeur a eu lieu avec la version Penguin 4 (aussi appelée Penguin 2.0 en référence à une vraie révolution dans le domaine du référencement).  La mise à jour a directement touché les pays du monde entier et toutes les langues. L’objectif principal fut de viser tous les sites ayant utilisé le black hat.

Avec cet algorithme, les backlinks sont de mieux en mieux analysés. Par exemple, un site sur le tourisme ayant des liens en rapport avec un site sur les animaux sera pénalisé. De même trop de liens provenant de commentaires dans les forums est dangereux.

Critères du référencement Google

Comme pour Panda, les référenceurs doivent suivre certains critères pour ne pas pénaliser leurs sites :

  • Les liens doivent être naturels, et non construits.
  • Ils ne doivent pas être excessifs.
  • Les webmasters et référenceurs ne doivent pas avoir payé pour la création de liens.
  • Les liens doivent provenir d’une large variété de domaines et non tous de quelques domaines référents.
  • Ils ne doivent pas être réciproques. Bien sûr, il peut arriver que quelques-uns soient réciproques mais cela ne doit pas être une majorité sous peine de sanction de la part de Google.
  • Pingouin est désromais capable de repérer les réseaux de liens effectués entre les sites d’un même propriétaire.
  • De trop nombreux liens qui seraient issus de sites de communiqués de presse

Aujourd’hui, la liste est loin d’être exhaustive, et il devient de plus en plus difficile de passer à travers les mailles du filet de Google. Avec toutes ces nouvelles mises à jour, beaucoup de sites ayant par le passé utilisés toutes ces techniques ont de grandes chances d’être pénalisés.

 

Pour les référenceurs, 2013 est sans aucun doute une année charnière où il devient de plus en plus délicat de continuer à utiliser des techniques suroptimisées. Il est certain que Google va encore faire évoluer Panda et Penguin, créer d’autres algorithmes encore plus perfectionnés qui risquent de faire des ravages dans le monde du référencement. Il ne reste plus qu’à se préparer en s’en tenant aux bonnes techniques !

Ecrire un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>