Google a annoncé une modification de son algorithme afin de déclasser les contenus jugés “à faible valeur ajoutée”. Celle-ci a pour but, entre autres, de lutter contre le spamdexing* et de ce que l’on appelle les fermes de contenus* et aggrégateurs* (voir les définitions en fin d’article). Il ne s’agit pas vraiment d’une surprise, Google ayant déjà plusieurs fois communiqué son combat contre ce type de sites web qui pollueraient ses résultats de recherche (les Serps).

Impact du nouvel algorithme de Google

Quel est l’impact de ce changement d’algorithme ? Selon le moteur, 11.8% des requêtes sont impactées de manière significative. Il permettrait de baisser le classement (ou ranking) des sites copiant le contenu d’autres sources (duplicate content) ou qui ne sont pas jugés comme utiles.

Cette modification est donc censée récompenser les sites jugés de qualité, en les aidant à gagner des positions dans les Serps… Au détriment d’autres sites qui seront purement et simplement déclassés comme vous pouvez le voir sur cet article en anglais à propos des effets du nouvel algorithme aux Etats-Unis.
Visiblement de nombreuses fermes de contenus semblent en faire les frais.

Les critères de qualité

Mais quels sont les critères de qualité vantés par le moteur ? Comme de coutume, les changements exacts de l’algorithme ne sont pas explicités par Google (pour diverses raisons qui feront sans doute l’objet d’un billet futur).

Cependant, voici quelques pistes déterminant selon eux un contenu de qualité : le contenu doit être unique et original, utile et résultant d’un vrai travail de fond. Pour plus d’informations sur l’écriture de vos contenus, rendez-vous sur notre article “Contenus sur internet, privilégiez la qualité”.

Vers une aseptisation des résultats de recherche ?

Ce changement d’algorithme s’accompagnera sans doute d’autres mesures pour affiner les résultats de recherche dans Google et les rendre toujours plus pertinents. L’intention du moteur de pousser dans ses résultats des contenus de qualité est louable. Elle apparaît même comme primordiale à l’heure où le moteur de recherche est régulièrement attaqué sur la faible qualité de ses résultats de recherche.

Cependant, plusieurs interrogations subsistent notamment sur le fait de déterminer mathématiquement les contenus dits pertinents et surtout utiles pour l’internaute. De plus rappelons que la richesse d’internet est aussi dans sa diversité (c’est d’ailleurs pour cette raison que sur ce blog, des articles de fond côtoient aussi des articles pour se détendre). Tout le monde n’a pas envie de lire uniquement des contenus sérieux et valides. Parfois nous avons aussi envie de consulter des contenus funs et divertissants, qui eux pourraient paraître moins valides aux yeux du moteur.

Ceux-ci seront-ils pénalisés à terme ? Allons-nous vers un web aseptisé où l’on ne pourra plus dénicher autre chose que du wikipédia et consorts ? L’avenir nous le dira !

Une extension Chrome pour bloquer des sites web

L’annonce de ce nouvel algorithme a été faite peu de temps après la sortie d’un nouveau plugin sur le navigateur Google Chrome : Personal Blocklist. Celui-ci a été lancé mi-février. Il permet aux utilisateurs de bloquer les sites qu’ils ne souhaitent plus voir dans leurs résultats de recherche.

Les sites bloqués par les utilisateurs ne devaient pas être pris en compte dans le nouvel algorithme dans un premier temps, même s’il a été également crée dans le but d’améliorer les services du moteur de recherche. Cependant, il y a tout de même une correspondance entre cette extension et les sites déclassés. En effet, d’après la Google team : « le changement de l’algorithme impacte 84% des sites les plus bloqués par cette extension ».
Bien entendu, aucun nom de site n’a filtré du moins dans la communication officielle du moteur.

En conclusion

La modification de l’algorithme du moteur a été déployée uniquement aux Etats-Unis pour l’instant. Elle devrait toucher d’ici peu les versions locales du moteur telle Google Luxembourg ou Google France par exemple.

Le mot de la fin : Nous ne vous le dirons jamais assez : soignez votre contenu !

Quelques éléments de définition

Aggrégateurs de contenus : sites regroupant des extraits d’articles (ou articles complets selon les cas) qui ont été publiés sur un autre site (exemple : Wikio)

Ferme de contenus : site qui publie un (très) grand nombre d’articles, sur des sujets précis ayant été préalablement identifiés comme des sujets recherchés par les internautes et donc susceptibles de générer du trafic et donc des revenus

(source : dico du net)

Spamdexing : ensemble de techniques consistant à tromper les moteurs de recherche sur la qualité d’une page ou d’un site afin d’obtenir, pour un mot-clef donné, un bon classement dans les résultats des moteurs

(source wikipedia)


Source de l’article : un billet de Matt Cutts et Amit Singhal sur le blog officiel de Google
Source image : sosandroid.fr