BLOG

Panda 4.0 : Est-ce que votre référencement web a été pénalisé? SEO, Mise à jour et pénalités : L’importance d’une stratégie de référencement solide

La mise à jour de Panda 4.0 le 20 Mai 2014

Mise a jour de Google Panda 4 - Oolong Media

Le 20 mai 2014 Matt Cutts, le porte-parole de Google sur tout ce qui concerne les mises à jour de Google ainsi que les recommandations des bonnes pratiques pour webmestres, a annoncé via Twitter que Google était en train d’activer la mise à jour de Panda 4.0.  

Bien qu’il y ait des mises à jour chaque mois de Panda, il semble que cette mise à jour soit beaucoup plus importante et implique un changement de l’architecture de l’algorithme. La mise à jour de Panda 4.0  affecterait environ 7,5 % des recherches en anglais et que ce pourcentage soit différent dans les autres langues. 

Cette mise à jour visait à faire disparaitre des premiers résultats de Google des pages web que Google considérait du SPAM. Pour Google,  des sites web qui se classent bien sans mériter ce classement, car ils ont utilisé des techniques non loyales pour s’optimiser et se classer qui sont contre les règles de qualité Google, sont du SPAM.

Les sites web ciblés semblaient être surtout ceux avec des pages ayant un contenu pauvre, ayant peu de mots, étant du simple remâché, ou encore qui n’était qu’une copie d’un autre site web. Il y avait aussi comme cible les sites web qui était sur optimisé à niveau du référencement interne.

Cependant cette mise à jour semblait mettre de l’avant  le coté plus doux du Panda, et aurait aussi comme objectif de permettre aux pages des sites web des PME qui ont du contenu de qualité de mieux se classer dans les moteurs de recherches au lieu que ce ne soit que les grandes marques et les mêmes sites web qui se classent pour tous les termes.  

À entendre cet argument de Matt Cutts, il semble donc qu’en Principe Panda 4.0 ait été une bonne mise à jour pour les PME, mais une moins bonne pour les grandes marques et les géants du web. À moins que vous soyez parmi ceux qui utilisent des stratégies de sur optimisation contre les règles de Google pour se classer…

La différence entre la mise à jour de Pingouin et de Panda

Qu’est-ce que la mise à jour de Pingouin

La mise à jour de Pingouin fut annoncée la première fois en avril 2012. L’objectif de cette mise à jour de l’algorithme de Google était de pénaliser les sites web ayant un profil de liens externes considéré SPAMMY. 

L’objectif était de détecter les sites web qui avaient  des liens externes qui était sur optimisés dans le but d’obtenir des meilleurs positionnements au niveau du référencement web naturel.

 Les stratégies comme des liens externes sur un site non pertinent faisant partie d’un réseau de site web à haut PR avec des textes d’ancrage sur optimisé ou encore  des milliers de liens provenant de répertoires d’articles ou de nouvelles de presses avec des textes d’ancrages ciblant des mots clés exacts, sont des exemples de liens et stratégies que Google considère SPAMMY.

La mise à jour de pingouin visait donc à pénaliser ces sites web (ou plutôt les ramener à leurs places qu’ils méritent).

 Les liens externes étant depuis le début un des éléments au centre de l’algorithme de Google, on peut comprendre pourquoi Google cherche à empêcher les référenceurs et webmestres d’utiliser cette stratégie pour optimiser son référencement web!

Cette mise à jour a considérablement ébranlé la communauté du référencement web, car avant cela, l’optimisation des textes d’ancrages était une des stratégies les plus efficaces pour se classer pour des mots clés.  Plusieurs sites ont même été supprimer de l’index Google.

Qu’est-ce que la mise à jour de Panda  de Google et quel est son impact sur le référencement?

En février 2011 a eu lieu la première mise à jour Panda qui affectait plus de 12 % des recherches. Contrairement à la mise à jour Pingouin, le Panda avait pour objectif de détecter les sites web ayant du contenu pauvre, pas long et de faible qualité et réduire leur positionnement dans les moteurs de recherche.

Cependant certains sites web qui avaient été très bien optimisés par des référenceurs SEO ont échappé à la pénalité.

En 2012 Google a annoncé qu’ils allaient intégrer une détection de sur optimisation à l’algorithme du Panda. Cette mise à jour avait comme objectif entre autres d’aider les sites web avec du contenu d’excellente qualité, mais non optimisés pour le SEO de se classer plus haut dans les moteurs de recherches.

C’est aussi cette mise à jour qui à fait en sorte de stimuler les référenceurs web à mettre de l’avant la stratégie de marketing de contenu, qui reste encore une des plus efficaces aujourd’hui.

Puis, il y a eu la mise à jour de Panda 4.0 le 20 mai 2014. Les impacts et répercussions ne sont pas encore totalement saisis, la mise à jour étant quand même récente. Une chose est sûr est que les algorithmes n’ont pas fini d’évoluer.

Les  plus grands gagnants et perdants de la mise à jour 4.0 : Pages Jaunes et Ebay pénalisés par Google !

Voici une liste des principaux gagnants et perdants jusqu’à présent publiée par Search Metrics. Il semble aussi selon Search Engine Land que de très populaires sites web de nouvelle des presses aux É.-U. comme PRweb et Newswire aillent été pénalisé et qu’ils aillent perdu une quantité considérable leurs positions naturelles dans les moteurs de recherche.

Ebay semble être un des plus gros perdants, mais il semblerait que la cause ne soit pas encore claire si la raison de la pénalité est due à Panda 4.0 ou à une pénalité manuelle.  Il est à noter aussi qu’en même temps que Panda 4.0, Google a aussi intégré la mise à jour de « Pay Loan 2.0 ».

Il est intéressant aussi de voir que Pages Jaunes USA a perdu plus de 20 % de leur trafic naturel. On ne sait pas s’il s’agit du même pourcentage pour Pages Jaunes Canada, mais je ne vois pas pourquoi ce ne serait pas le cas, car de toute façon, qui trouve pertinent de voir des résultats de pages jaunes dans Google?

PANDA 4 les grands perdants

Panda 4 les grands gagnants

 

 

 

 

 

 

 

Comment savoir si votre site web a été pénalisé par l’algorithme de Panda 4.0

Est-ce que vous avez vu un changement majeur dans vos positionnements Google ou dans le trafic naturel vers votre site web il y a une dizaine de jours? Si oui, il se peut que cela soit dû à la mise à jour de Panda 4.0. Cependant, il est aussi possible qu’il y ait d’autres causes et raisons que la mise à jour.

Dans la majorité des cas, les propriétaires d’entreprises pensent qu’ils ont été touchés par une mise à jour alors qu’il s’agit d’une combinaison d’autres variables et circonstances.

Si  vous croyez avoir été pénalisé, vous pouvez analyser vos statistiques pour voir s’il s’agit d’une perte drastique de position associée à certaines pages qui étaient de faible qualité qui générait du trafic naturel.

Si c’est le cas, vous devriez constater dans votre outil d’analyse comme Google Analytique une diminution drastique du nombre de visiteurs entrants sur certaines pages spécifiques qui se classaient.

Est-ce que le contenu de votre site web est de faible qualité?

Un des objectifs principaux de la mise de Panda 4.0 est de lutter contre le SPAM dans les résultats de recherche. Google considère comme du SPAM les pages pauvres en contenu ou qui ont du contenu qui est remâché ou dupliqué, c’est à dire copier-coller d’une autre source.  

Google a pour objectif d’offrir dans ses résultats naturels du contenu de qualité, utile, unique et pertinent qui répond à ce que recherche l’audience. Des milliers de sites web cherchent à s’optimiser parfois pour certains termes, pourquoi croyez-vous que votre page ou site web mériterait la première position?

Google deviendra toujours de plus en plus habile à filtrer et comprendre les pages web et quelle est leurs utilité et valeur pour l’audience cible. Bien sûr, il y a encore des failles dans l’algorithme du géant web, et ces failles laissent la possibilité à certains joueurs de s’optimiser pour bénéficier d’une visibilité temporaire.

Mais c’est là une approche sur le court  terme qui est très risquée. Qui veut construire un modèle de visibilité d’entreprise basé sur une faille temporaire qui risque d’être corrigé et faire alors disparaitre toute la visibilité et le flot de visiteurs sur le site web du jour au lendemain?

Pourtant vous seriez surprit du nombre d’entreprises et de site web à qui cette tragique expérience est arrivée. Plusieurs sites web sont passés de milliers de visiteurs organiques quotidiens et générant des revenus de plusieurs centaines de milliers par années à 0 visite du jour au lendemain.

Vous n’avez qu’à aller consulter le forum du Google webmaster Tools ou les gens cherchent à demander une reconsidération pour leurs pénalités pour voir de ces commentaires et situation.

Si vous voulez vous démarquer dans les résultats pour des recherches naturelles dans Google sans aucun risque d’être pénalisé par les changements d’algorithme, alors voici mes recommandations :

Organiser vous pour produire  un contenu d’une qualité exceptionnelle qui apporte quelque chose d’extrêmement pertinent et unique à votre audience cible.

À tel point que vous pouvez vous dire: « cette page est beaucoup mieux que tous les résultats actuels sur la première page de Google pour ce mot clé ».  Le contenu de qualité et le marketing de contenu restent la clé du succès pour un bon référencement naturel.

Avez-vous (ou un référenceur) sur optimisé votre site web?

L’algorithme de Panda inclue une variable de pénalisation de sur optimisation d’intégrée à son fonctionnement comme nous avons mentionné plus haut. Il se peut donc qu’une pénalisation provenant de Panda 4.0 soit due à une sur optimisation de votre site web ou de certaines pages de votre site.

Vous pouvez donc avoir un excellent contenu de qualité, mais vous retrouver pénalisé si vous avez sur abusé dans l’optimisation interne de votre page. Voici quelques éléments reconnus pour être considérés de la sur optimisation :

  • –        Densité de mots clés trop élevée dans une page
  • –        Section de bas de page sur optimisé pour les mots clés
  • –        Liens d’ancrages entre les pages internes sur optimisés
  • –        Trop grande concentration de mots clés dans un titre
  • –        Abus d’optimisation de mots clés dans l’URL des pages
  • –        Redirection et tentative de contrôle volontaire de concentrer le PR vers une page spécifique

Bien sûr, la plupart des référenceurs dans l’industrie qui travaille dans le sens des règles éthiques de Google savent très bien que ces stratégies peuvent mener à des pénalités.

Quoi faire comme stratégie pour ne pas risquer d’être pénalisé par les mises à jour Google.

Il faut penser aux utilisateurs, il faut penser à générer du matériel utile, pertinent et de qualité. Soyez le résultat que Google veut classer, car vous le méritez.

Vous voulez être premier pour un certain mot clé?

Très bien!

Commencer par rechercher dans Google et regarder chacun des sites et des pages web qui se classent sur la première page.

Ensuite vous pouvez même regarder les résultats qui se classent pour votre mot clé en anglais.

Basé ensuite sur ces observations, Efforcez-vous de concevoir et crée une page qui sera mieux que toutes les pages que vous avez vues dans les premiers résultats.

Produisez une page qui a un excellent design, un long contenu recherché et pertinent, une fonctionnalité utile. Vous devez vous dire :

«Rien n’est plus pertinent actuellement sur Internet sur la question, je mérite la première position, car mon contenu est incroyablement pertinent et utile aux utilisateurs cherchant ce mot clé ».

Il faut se concentrer sur générer des sites web de qualité. Si vous avez une boutique en ligne, vous devrez rédiger une description unique pour chacun de vos produits qui est  pertinente pour les utilisateurs. Vous ne pouvez pas simplement copier-coller la description fournie par le fabricant, car celle-ci est déjà indexée sur des dizaines de sites web et n’apporte aucune valeur de plus.

Si vous maintenez comme objectif de construire votre site web pour les utilisateurs, pour qu’il soit utile, ergonomique et pertinent, et que vous générez constamment du matériel de qualité (que ce soit des articles, des applications web, des infographies, des vidéos…) qui est appréciée par votre audience, alors vous n’avez rien à craindre des mises à jour de Google que ce soit le Pingouin, Panda, Colibri,  le Pay Loan ou un autre animal encore inconnu de la sphère du web.  

Julian Jimenez Grenon
En tant que cofondateur de Oolong Media, agence web à Québec, où je suis gestionnaire de projet, stratège web et webmestre, je passe la majorité de mon temps à créer des sites Internet pour les PME du Québec et à gérer les campagnes de référencement Web et de marketing Internet de ces entreprises. Les technologies web et l’optimisation basée sur l’analyse de statistiques sont mes réelles passions. Dans mes temps libres, je m’adonne à la rédaction d’articles et à la dégustation d’excellents thés Oolong. Si vous voulez communiquer et échanger sur différentes idées, n’hésitez pas à me contacter!
Julian Jimenez Grenon

@juliangrenon

Tech and Tea fan, Spirituality and self development, Browsing the web, Speed and Optimization of all, Cherry Picker and world traveler
Julian Jimenez Grenon

Publier un commentaire