Web : le Panda de Google approche, pour nettoyer le web

Publié le par dan29000

 

Pour nettoyer le Web, le Panda de Google sort les griffes


Montage photo d'un panda armé dans une rue (Teamstickergiant/Flickr)

 


L'animal a bouleversé le référencement de nombreux sites web aux Etats-Unis, il débarquera bientôt en France et personne ne sait vraiment à quoi s'attendre. Ce Panda qui fait si peur, c'est le nom du nouvel algorithme de Google, le système mathématique au cœur du moteur de recherche.

Les sites web se livrent une guerre sans merci pour avoir les faveurs de l'algorithme de chaque moteur de recherche, cet outil mathématique qui classe les sites à chaque recherche effectuée par un internaute. Etre parmi les premiers résultats affichés après une recherche, c'est l'assurance d'attirer le plus d'internautes, comme le confirme une étude récente.

Surtout en Europe, où Google occupe une position de quasi-monopole. Alors quand les Californiens annoncent qu'avec Panda, c'est l'algorithme du moteur qui a été refondu en entier, l'ensemble des sites Internet tremble et redoute le coup de bambou.

Google espère améliorer la « qualité » des résultats des recherches, c'est-à-dire leur pertinence au regard de l'information recherchée par l'internaute. Dans le collimateur du moteur : les « fermes de contenu », des sites groupant des milliers d'articles à faible valeur ajoutée, mais bourrés de mots-clés pour attirer les clics.

Autres cibles : les agrégateurs (qui dupliquent le contenu d'autres sites), les comparateurs de sites et les sites sur-référencés grâce à des techniques frauduleuses (ce qu'on appelle le « black hat SEO »).

Le brûlant besoin de communiquer

Google, d'habitude si avare en informations concernant son algorithme tellement secret, a dévoilé plusieurs de ses critères de conception :

  • proportion de pub sur le site
  • temps passé par l'internaute sur le site
  • fréquence de partage du contenu sur les médias sociaux

Les ingénieurs californiens ont en même temps révélé qu'il se sont appuyés sur des « tests humains », à travers des questions envoyées à un panel d'internautes.

Olivier Duffez est consultant en référencement et tient le site WebRankInfo. Pour lui, cette mise à jour va dans le bon sens :

« Un paquet d'internautes sont contents. Aujourd'hui en France, quand on analyse les résultats de milliers de mots-clés liés au voyage, on voit que sur les dix premiers sites trouvés, huit sont des comparateurs. Il faut que ça change. »

Les mises à jour, Google en fait régulièrement. Mais celle-ci est majeure et, surtout, Google communique dessus, ce qui est inédit.

Sans doute parce qu'il est la cible de critiques croissantes des internautes, qui lui reprochent d'être incapable de lutter contre le spam. Cela a poussé Blekko, un moteur concurrent, à proposer un filtrage des fermes de contenu.

Pour Frédéric Montagnon, responsable marketing de l'agrégateur Wikio, Google veut récupérer « le leadership de l'image », qu'il aurait perdu :

« Google, ce n'est plus la start-up californienne sympa des débuts. Aujourd'hui, c'est Facebook qui monopolise l'attention des
journalistes. Avec Panda, Google cherche à montrer qu'elle continue à faire évoluer le Web. »

Certains sites ont perdu 98% de leur visibilité

Lancée dans le monde anglo-saxon depuis plusieurs semaines, Panda a eu une incidence sur 12% des requêtes, d'après Google. Les premiers résultats sont ravageurs sur de nombreux sites, certains ayant vu une perte de référencement de 98%, selon des premières mesures à prendre avec du recul, comme l'indiquent les spécialistes contactés.

Au Royaume-Uni, le portail Wikio.co.uk, qui agrège les articles provenant de sites d'information et de blogs, est une des principales victimes du nouvel algorithme. Pas de quoi bouleverser Frédéric Montagnon :

« Les activités du groupe se sont diversifiées, Wikio ne représente que 3% de notre chiffre d'affaires. Au contraire, on salue ce changement. Il a permis d'améliorer nos résultats sur d'autres sites. »

En France, on ne sait pas exactement quand le Panda va débarquer. Olivier Duffez, dans le cadre de ses formations, côtoie de nombreux responsables de sociétés qui attendent avec une certaine fébrilité :

« Ce n'est pas la panique, mais il y a de réelles interrogations. Y compris de la part de sites offrant des contenus de qualité, et qui ne devraient pas s'inquiéter. »

Zones d'ombre et dommages collatéraux

Il semble que dans le monde anglo-saxon, le système Panda ait dégradé de manière injustifiée le résultat de plusieurs sites proposant pourtant un contenu original et de qualité. Pour Olivier Duffez, « vu l'ampleur de cette mise à jour, certains effets de marge étaient inévitables. »

Ce qui le gêne plus, c'est le flou qui entoure certains nouveaux critères. Pris entre désir de communication et préservation des secrets de son algorithme, Google n'a peut-être pas trouvé l'équilibre parfait :

« A Google, on nous dit que désormais, si une partie d'un site est considérée comme étant de mauvaise qualité, alors c'est le site entier qui sera affecté. Mais on ne sait pas de quelle proportion on parle.

Si seulement deux pages d'un site peuvent faire cet effet, imaginez le casse-tête pour un site de plusieurs milliers de pages. Du coup, les rumeurs circulent… »

Et selon Olivier Duffez, certaines précisions de la part de Google ont été pour le moins troublantes :

« Sur les sites de questions-réponses [du type du fameux Yahoo Answers, ndlr], lorsqu'une question est posée et qu'il n'y a pas encore de réponse, Google recommande de ne pas indexer la page pour éviter qu'elle apparaisse dans les résultats et que le site soit pénalisé. Mais alors, comment font les internautes pour répondre à la question ? »

Et les intérêts personnels de Google, dans tout ça ? En faisant apparaître dans les résultats un certain nombre de ses propres produits, la firme californienne se pose en juge et partie.

Un complot pour éliminer les concurrents ?

En février dernier, elle a admis qu'elle a mis une place une « white list » de sites qui seraient non soumis à certains critères algorithmiques. Microsoft a fait de même pour son moteur Bing.

Selon Google, il s'agit de corriger manuellement les effets indésirables de certains de ses outils, comme SafeSearch, qui filtre les sites pour adultes. La firme prend comme exemple le site essex.edu, le site d'une université du New Jersey, bloqué par SafeSearch qui y voyait le mot « sex ». Google affirme également qu'aucune « white-list » n'existe spécifiquement pour Panda.

Pourtant, ces listes éveillent les soupçons, à l'heure où Google, déjà impliqué dans des polémiques liées à l'utilisation de données personnelles, fait l'objet d'enquêtes aux Etats-Unis et en Europe pour abus de position dominante.

« Google a tendance à vouloir déclasser les produits des sites qui font le même métier que lui », dénonce Frédéric Montagnon en prenant l'exemple de Google Actu, un agrégateur concurrent de Wikio, qu'il considère comme « moins complet » :

« L'an dernier, Google a fait une mise à jour qui a fait baisser le référencement des comparateurs. Or, juste après, ils ont lancé la version française de Google Products… qui est un comparateur. »

On peut aussi citer le cas de YouTube. Propriété de Google, la plate-forme de vidéos a profité du nouvel algorithme malgré un contenu qui est loin de correspondre aux requêtes des internautes, avec certaines pages bourrées de spams. Olivier Duffez :

« Voilà le genre de pages que Google nous demande de ne pas indexer ! C'est un peu perturbant de voir que YouTube a gagné en référencement avec ça… »

Un vaste plan anti-concurrence ? Frédéric Montagnon ne croit pas une minute à cette hypothèse :

« Je ne suis pas sûr que Google puisse se permettre de biaiser son algorithme comme ça. Si c'était avéré, ce serait dangereux. La pertinence d'un moteur est avant tout liée la confiance qu'on lui accorde. »

Illustration : montage photo d'un panda armé dans une rue (Teamstickergiant/Flickr)

Mise à jour à 15h28 : Rectification. Les chiffres liés aux pertes de certains sites anglo-saxons concernent leur référencement, et non leur trafic.

Publié dans écrans

Commenter cet article

Denis 10/06/2011 05:34



Le travail a commencé.


 


-> Google Panda, à l’origine de la chute d’audience des agrégateurs et des blogs
?



dan29000 10/06/2011 09:32



Oui, c vrai, notre site l'a déjà hélas constaté...



Mitsuko 02/06/2011 18:01



Article très intéressant qui amène à découvrir certaines choses ... pas toujours positives mais bon ...


Il suffit de le  savoir ...



keruzien 02/06/2011 10:30



Très intéressant cet article, ça confirme quelques "impressions" que j'avais. C'est un sujet relativement peu traité et qui pourtant devrait être un élément important, à côté de bien d'autres
certes, d'un programme politique.
Pour être efficace un moteur de recherche doit référencer des millions de sites, disposer d'algorithmes et de très forte puissance de calcul. Difficile d'avoir de nombreuses sociétés capables de
suivre et on se retrouve vite dans une situation de monopole ou quasi : 2-3 grosses sociétés qui se partagent le gateau, après une période de conflits.
Et si on créait un moteur de recherche public, en s'inspirant de ce qui se passe avec le logiciel libre ? Avec des possibilités de choix d'algorithme qui permettent de sortir d'une recherche
basique par mots clés où sont favorisés les sites comportant un le plus grand nombre d'occurences, au détrimant du sens; sans compter ce qui favorise la pub, les gros qui ont les moyens de se
faire référencer et les petits arrangements entre amis.
Un exemple, je cherchais des documentation faites avec 'Latex' un outil informatique, et bien je n'ai pas trouvé, par contre j'ai trouvé des documents au sujet
de 'Latex' mais ce n'est pas ce que cherchais.