Conseil, Audit, Stratégies

Marketing Digital

Pénalités et filtres Google

Pénalités et filtres Google

» Diagnostiquer une pénalité
» Echapper à une pénalité
» Recourir à un audit spécialisé

Votre trafic et votre chiffre d’affaires sont en berne ? Votre site a été « Panda-lisé ou Penguin-isé » ou plus communément pénalisé par Google ?

De l’exclusion totale du site de l’index de Google jusqu’à une perte de positionnement limitée à des requêtes spécifiques, on rencontre aujourd’hui de nombreux types de pénalités, des plus sévères aux plus restreintes, mais parfois tout aussi pernicieuses, car plus difficilement compréhensibles ou même détectables.
A distinguer aussi, les pénalités manuelles, en général appliquées suite à des spam reports, des pénalités automatiques déclenchées algorithmiquement. On parle dans ce dernier cas en général de filtres. Les algorithmes utilisant des centaines de filtres, il n’est pas toujours aisé de comprendre d’où proviennent les contributions négatives. Les observations montrent qu’un site ou seulement une partie de ses rubriques, ou même de ses pages peuvent se voir rétrograder sur les résultats de recherche. Il en résulte qu’un site peut très bien rester correctement positionné sur certains termes, et se voir déclasser sur d’autres.

Comment diagnostiquer une pénalité ?

Tout d’abord toute perte de positionnement, même systématique, n’est pas toujours synonyme du déclenchement d’une pénalité ou de filtres. Le web et les moteurs de recherche évoluent constamment. La concurrence progresse, certains de vos liens les plus importants peuvent avoir été dévalués, et les algorithmes de classement sont mis à jour régulièrement. Google parle d’environ 500 modifications chaque année, sans parler des changements plus importants comme pour Florida ou plus récemment Panda. De plus les positions sur les résultats de recherche ne sont pas toujours stables, ce qui permet probablement à Google de tester les réactions des utilisateurs (par ex. CTR* et taux de rebond* sur les SERP*) sur une plus large palette de pages au contenu déjà perçu par le moteur comme pertinent. La géolocalisation et les multiples méthodes employées par Google pour personnaliser les recherches constituent des sources de variations additionnelles.

Les différents types de pénalités

Si votre site ne répond plus à la commande (site:votredomaine.fr) vous ne figurez plus dans l’index ! Ou encore si celui-ci est toujours indexé, mais ne ressort plus sur son nom ou sa marque (taper « votredomaine » sans l’extension .tld), vous faites l’objet d’une pénalité manuelle infligée pour 30, 60 jours, voire 6 mois ou plus, suivant la gravité des faits.

Seomoz (en anglais) propose un petit algorithme ou « flow chart » pour un premier diagnostique. A voir aussi cette vidéo de Matt Cutts (en anglais) sur les pénalités Google.

Le PR* grisé sur des pages, l’évolution de la fréquence de crawl et de mise à jour du cache relatives entre les pages, ainsi que le type de baisse de trafic (soudaine et définitive, cyclique, érosion constante, etc) sur le site, une rubrique ou certaines pages critiques, donnera des indications sur le genre de pénalité appliquée.

On s’intéresse ici plus particulièrement aux pénalités algorithmiques ou effets de filtres. Sans citer les déclassements légendaires du type – 30, – 50 et même – 950 !? (pour ceux qui suivent WebMasterWorld), car cela semble aujourd’hui moins trivial, bien que l’on observe encore en 2012 des reculs cycliques, voire systématiques, de plusieurs pages par ex. de la première à la sixième page des résultats; ces filtres auront tous pour effet de vous éloigner de la ou des premières pages visibles.

Subtil ou non un déclassement d’un nombre important de positions ou de plusieurs pages aura le même effet désastreux sur vos affaires ! Quelle différence pour votre trafic, que vous vous trouviez relégué de la première à la sixième… ou à la cinquantième page ?

Dans ces derniers cas le site est toujours indexé et répond normalement sur son nom ou sa marque. Si vous recopiez une ou deux phrases du contenu d’une page celle-ci devrait toujours ressortir en premier (dans la négative voir contenu dupliqué). Il est alors intéressant d’effectuer des requêtes sur des expressions associées au contenu particulier de cette page et mots clés, par ex. ceux présents dans les balises Title, H1, etc. Si vous n’apparaissez plus dans les toutes premières pages (en fonction de la concurrence sur ces requêtes et de la notoriété de votre site) sur un nombre conséquent de data centers, vous faites probablement l’objet de filtres pénalisant.

Pour poursuivre votre diagnostique il conviendra d’analyser en détail vos rapports de positionnement (en incluant la concurrence) et bien sûr vos données Google Analytics et Google Webmaster Tools.
A moins d’opérer dans un domaine avec de très forts effets de mode ou de saisonnalité, une perte significative de trafic organique a en général une raison !

Les causes possibles de déclenchement de pénalités ou de filtres

Pour les cas les plus courant, une pénalité manuelle a été appliquée, suite à l’identification d’un réseau ou de manipulations de liens, en général des liens payant achetés sur des réseaux identifiés par le moteur. Ou alors le site a été « hacké » et se retrouve avec un malware ou une injection massive de liens spammy (certains hackers plus subtils sont encore plus vicieux), mais le résultat est le même. Sans réécrire les consignes pour webmasters de Google, sachez que les textes et liens cachés, le cloaking non justifié, le bourrage de mots clés, les pages satellites, les liens de mauvais voisinage (vers des sites de spam), toute manipulation intempestive de liens, certaines redirections JavaScript trompeuses, ainsi qu’un grand nombre de requêtes automatiques à partir de l’IP du site (ex. sur serveur dédié), pourra vous attirer les foudres de Google. Par ailleurs la tolérance du moteur vis à vis des sites ne disposant que d’un contenu original très maigre s’amenuise chaque année (ex. scrapping, spinning et agrégation de contenu, certains programmes d’affiliation et de comparaison de produits, une présence envahissante de publicités au dessus de la ligne de flottaison, les « splogs », « MFA », etc). Si certains artistes arrivent toujours à passer entre les mailles du filet, ils sont à la merci de nouveaux filtres (ex Panda) ou plus prosaïquement d’un simple « spam report » d’un concurrent mécontent.

Dans les cas moins évidents du déclenchement ou de l’impact de filtres particuliers à certaines pages spécifiques ou mots clés, le web-master n’a en général pas cherché à enfreindre les règles édictées par Google, mais seulement à « optimiser » son site et son contenu pour se rapprocher de la première position. Certains web-masters ou SEO ont la main un peu lourde ou sont aveuglés par des premiers résultats prometteurs. A leur décharge les consignes de Google ne sont pas toujours claires et très détaillées, par ex. sur l’affiliation, peut-être à dessein pour ne pas trop renseigner les spammeurs. De plus certaines pénalités et reculs ne sont pas nécessairement justifiées ou provenant d’actions volontaires effectuées par le propriétaire du site. Quelques cas de concurrents peu scrupuleux et de « négative SEO » (rares), mais bien plus souvent des erreurs humaines ou techniques plus communes. Par ex. meta noindex, fichier robots.txt, redirections, htaccess, url canoniques, cms mal conçus, réponses serveur 404, ou 500, voire 503 trop long ou des « downtimes » fréquents du serveur pour mémoire insuffisante…

C’est vraisemblablement un ensemble de facteurs qui contribuant négativement à une sorte de « spam score » va rendre visible un site ou ses pages sur les écrans radar de Google et favoriser le déclenchement de filtres pénalisant.
Exemple de filtre Google et de perte de trafic
Exemple de perte de trafic due à des pénalités ou filtres de Google

Des questions à se poser

  • Quelle est la qualité du profil de liens du site ? (diversité des ancres et référents, qualité et temporalité primant sur la quantité du maillage entrant)
  • Qualité du maillage sortant (mauvais voisinage ?)
  • Quel est l’état de sur-optimisation du site (éléments on-page et maillage interne) ?
  • Les textes seraient-ils écrits de cette façon si les moteurs n’existaient pas ?
  • Les informations disponibles sur le site sont-elles originales (sans même parler de qualité ou de valeur ajoutée), ou bien l’on retrouve le même contenu à quelques mots près sur pléthore de sites ?

Il ne faut bien sûr pas se faire trop d’illusions, de nombreux sites répondant négativement à plusieurs de ces questions sont encore aujourd’hui très bien positionnés dans les résultats de recherche. Par contre ils bénéficient certainement aussi de facteurs positifs accumulés au fil du temps, que tous les sites et en particulier les plus récents ne possèdent pas, comme par exemple d’excellents liens déjà anciens provenant de sites référents de bonne notoriété.

Les erreurs à éviter

Le contenu dupliqué

Google cherche visiblement à dédramatiser ce problème, et si de fait quelques contenus identiques ou proches sur un même site ne devrait pas le faire plonger dans les résultats de recherche, c’est souvent encore la cause de gros soucis. Bien sûr c’est le cas lorsqu’un site mieux établi que le votre recopie une grande quantité de votre contenu sans effectuer de lien vers la source (attention si vous laissez l’intégralité de vos articles dans vos flux RSS*), mais aussi sur les sites dynamiques de bonne taille utilisant par exemple un CMS* conduisant à des urls mal gérées et à une importante génération de contenu identique présent sur différentes pages/adresses.

Multi-domaines et URLs*

Attention aux multi-domaines et alias de sites, comme aux urls mal gérées (utiliser par ex. des redirections 301 ou la balise canonical)

La génération de liens automatique

Les amateurs les plus doués de « Scrapebox », « L.F.E. », « Xrumer » et autres backlinkers ont certainement bien profité de la faiblesse historique de l’algorithme et de sa valorisation (excessive ?) des back-links. Garder à l’esprit cependant que toute automatisation, même sophistiquée, pourra difficilement rester à l’abri des radars de Google. Pour le néophyte tout mécanisme d’acquisition et d’échange de liens plus ou moins automatique est à proscrire.

Les sur-optimisations

Les sites récents dont l’autorité et la notoriété ne sont pas encore établies sont les plus vulnérables. Bien avant que Google ne commence à communiquer sur des pénalités pour sur-optimisation SEO les webmasters parlaient déjà de la légendaire « Sandbox ». Des ancres peu variées et trop optimisées déclenchent fréquemment des filtres automatiques. De même pour des rythmes d’acquisition de liens inattendus ou artificiels. Mieux vaut aussi éviter des liens identiques en très grand nombre par exemple sur l’ensemble d’un site par le biais d’un footer, surtout avec une ancre « optimisée », ainsi que les trop fortes proportions de liens réciproques. Quant au texte écrit pour les moteurs, ou l’utilisation exhaustive de toutes les optimisations SEO possibles sur une même page, cela risque de s’avérer rapidement contre-productif.

Comment sortir d’une pénalité ?

Google est magnanime et vous avertit dans les Outils pour Webmasters que vous avez essayé de « contourner » ses règles. Vous pouvez nettoyer votre site (bon courage et bonne chance si vous avez utilisé des réseaux de liens), jurer sur l’honneur (de votre mère ?) que vous ne recommencerez plus et demander une reconsidération et réintégration de votre site dans l’index. Magnanime… peut-être, mais certainement pas amnésique ! Alors à moins que votre responsabilité de webmaster soit clairement mise hors de cause, ne perdez pas votre temps. Par contre si votre site a été « hacké », il sera certainement très utile de contacter Google qui lèvera la pénalité ou le bannissement sans problème, du moins une fois que vous aurez « purifié » votre code source, ainsi que votre serveur.

Si par ailleurs vous pensez être victime d’un bug ou d’effets de bord des algorithmes de Google et de leurs nombreuses couches de filtres, ou encore des nouveaux filtres Panda, sans raison, du moins apparente, une demande de ré-examen restera probablement sans réelle réponse, mise à part un retour automatisé peu utile. Par contre vous pouvez poser des questions sur les forum Google Webmaster Central. Des membres expérimentés et parfois des employés de Google pourront vous répondre (plus de trafic et de chances d’obtenir des infos intéressantes sur la version anglaise).

Dans les cas de filtres algorithmiques et de « sur-optimisation » potentielle qui nous intéressent, après avoir vérifié (et seulement après !) tous les problèmes techniques possibles (voir des exemples plus haut) et inspecté religieusement le code source renvoyé par le serveur, il va falloir essayer d’ identifier les points les plus faibles et commencer à dés-optimiser. Mais où s’arrête l’optimisation et où commence la sur-optimisation ? A moins de travailler dans l’équipe d’Amit Singhal, vous n’aurez pas d’idées précises sur la question, nous sommes dans l’empirique. Il faut continuellement tester pour acquérir quelques certitudes … qui vont par ailleurs évoluer au cours des modifications apportées par Google.

Il est parfois délicat de modifier la structure d’un site et de ses pages, lorsque celui-ci conserve d’excellentes positions sur d’autres termes populaires. On s’efforcera de cerner la rubrique ou les pages incriminées le mieux possible, et commencera par modifier le contenu de certaines balises plus ou moins sensibles, ainsi que certaines ancres de liens. Un autre angle d’attaque consiste à ajouter du contenu et des liens de meilleure qualité pour améliorer le « mix » d’une rubrique pénalisée. Pas facile non plus pour un web-master, qui risque de perdre rapidement la foi, lorsque le trafic et les sources de revenus ne sont plus au rendez-vous. Dans d’autres cas, ne pas hésiter à élaguer les mauvaises pages ou rubriques du site, douloureux aussi lorsque le webmestre est personnellement impliqué et compte sur ses revenus publicitaires.

Si dans le cas d’un site très récent, il est souvent urgent d’attendre, dans le cas de sites matures, il n’est jamais trop tôt pour commencer à analyser et à documenter les problèmes rencontrés, afin d’intervenir rapidement et à bon escient, avant que les pénalités ne s’installent, c.a.d. pour éviter de poursuivre les mêmes erreurs.

En conclusion pas de remède miracle, ni de solution universelle pouvant s’appliquer à tous les cas de figure. Une bonne documentation (voir ci-dessous) et l’expérience concrète du responsable du projet seront vos meilleurs alliées.

Préparation d’un audit technique détaillé

Il ne s’agit pas de débattre sur la frontière entre l’optimisation et la sur-optimisation… ou encore d’apprendre à naviguer au plus près sans jamais apparaître sur les écrans radars de Google … amusant ? … certes, sauf si votre réussite économique est fortement dépendante de Google !

Heureusement dans de nombreux cas de pertes notables de trafic et de positions, un audit minutieux permettra de révéler une raison objective du déclenchement des filtres. Cela va de l’erreur humaine provenant du webmaster ou de l’équipe de développement (voir tout facteur bloquant), rédactionnelle (ex. reprise de vieux « marronniers » ou de contenu déjà remixé), ou encore SEO (utilisation de techniques semi-automatiques ou bon marché), à des changements survenus à l’extérieur du site (sites liés, concurrents, dernières modifications de l’algorithme).

Les bonnes pratiques indiquées ci-dessous pourront vous être utiles :

  • Utilisez les alertes personnalisées automatiques de Google Analytics pour détecter rapidement des modifications importantes de trafic et même de positionnement réel sur vos principaux mots clés générateurs de trafic organique
  • Google Analytics pourra aussi vous donner l’évolution du nombre de vos pages d’entrée, de vos mot clés, de vos référents, … (nous organisons fréquemment des formations pour une utilisation avancée de Google Analytics)
  • Conservez un historique des alertes et infos communiquées par les Webmasters Tools par ex. nombre de pages indexées et erreurs sur les sites maps, problèmes de crawl pour Google bot…
  • Conservez un « log » ou historique détaillé de toutes les modifications apportées au site par les développeurs, les rédacteurs, les référenceurs (le cas échéant). Vous devez pouvoir retrouver à quel moment des modifications ont été effectuées sur le code ou l’organisation des pages, les modifications apportées au contenu de balises sensibles (ex Title), l’architecture du site, le fichier robots.txt, les htaccess … tout comme les dates de démarrage des campagnes de net-linking, campagnes de « communiqués de presse », etc
  • Incluez vos principaux concurrents dans vos rapports de positionnement sur vos requêtes phares, ce qui vous permettra de comprendre si vous êtes le seul à avoir été sanctionné.
  • Monitorez votre serveur (ex. installez Munin) ou utilisez un service extérieur de mesure d’uptime, ainsi que des alertes paramétrées à partir de votre solution de Web Analytics.

C’est la mise en correspondance de l’ensemble de ces informations qui va permettre d’effectuer une analyse poussée. Tout ce que vous pourrez faire pour cerner le plus précisément possible votre problème (rubriques, pages, requêtes touchées avec pertes de ranking correspondantes) et le documenter (log des modifications apportées au site et son environnement), facilitera la résolution du problème.

(*) Voir Lexique Webmarketing