Google Pingouin, le filtre pour les manchots

Google Pingouin, beaucoup de bruit pour rien !

Il n'y a que dans les dessins animés que l'on voit des pingouins joyeux - Andreï Kourkov (photo Gareth Weeks)

Pingouin, c'est le nom du dernier filtre mis en production par le moteur de recherche Google, filtre qui entraîne des chutes (positions et trafic) de nombreux sites web dans les pages de résultats. Les communications récentes de Google ont mis le monde des référenceurs sur le qui-vive. Quel est ce nouveau filtre ? Sur quels critères agit-il ? Quelles suroptimisations sont visées ? Autant de questions qui agitent les forums de référencement, dans lesquels chacun y va de ses hypothèses.

Si vous souhaitez connaître, orage par orage, la progression de la tempête en cours, consultez l'article d'Aurélien Bardon : Google Pingouin et compagnie : que se passe-t-il vraiment ? Il y détaille le parallèle entre les annonces de Google et les chutes observées. Il y partage aussi quelques expériences personnelles.

Plus ça change et plus c'est la même chose

Premier constat : c'était prévisible. Uns stratégie SEO ambitieuse s'inscrit sur deux ans minimum. On sait par expérience que, dans ce laps de temps, un ou plusieurs tremblements de terre vont agiter les édifices constitués par nos modes d'acquisition de trafic, sans compter les petits glissements de terrain permanents.

Deuxième constat : ces bourrasques soufflent toujours dans le même sens : Google essaie de colmater les brèches dans lesquelles s'engouffrent, plus ou moins finement, les référenceurs.

Troisième constat : les conseils prodigués en ce moment dans la blogosphère SEO (variez vos ancres, variez vos sources de liens, n'optimisez pas trop vos pages, recherchez des liens d'autorité, etc.) ont beau être présentés comme quelque chose de neuf, ils sont publiés tels quels depuis 2005. Les fondamentaux sont connus, rien n'a changé ; les fils de forums qui ont suivi Florida (1) et ceux d'aujourd'hui sont interchangeables.

Le fond de mon propos est : il n'est pas important, hormis curiosité intellectuelle éminement respectable, de se perdre en supputations, hypothèses et conjectures pour tenter de savoir avec quel(s) critère(s) précis s'amuse le pingouin. Ce sera de toutes façons :

  1. en lien avec un ou des facteur(s) de suroptimisation déjà connu ;
  2. en lien avec l'idée que se fait Google de la pertinence des résultats.

C'est le cas pour tous les filtres mis en place par Google, sauf Panda.(2)

La suroptimisation

Les référenceurs compétents savent parfaitement à quel moment leur intervention est susceptible d'entraîner un déclassement. Google communique sans arrêt là-dessus, et nous sommes à présent riches d'une dizaine d'années d'expériences partagées en la matière. Un projet sérieux, par exemple un e-commerce avec un plan de développement à trois ans, et donc un plan SEO de même durée, exclut d'office la moindre prise de risque en la matière. Encore une fois, un plan SEO sur plusieurs années inclut forcément le fait que Google serre les boulons de manière continue, et que nous ne savons pas à l'avance quand tel ou tel procédé sera réellement sanctionné. Toute forme de suroptimisation (mots-clés dans les pages et/ou dans les ancres des liens par exemple) est clairement à bannir. L'objectif, c'est la performance durable, donc qui reste sous le radar.

Pingouin ou pas Pingouin, si vous voulez durer, désoptimisez.

La pertinence des résultats

Ici encore, nous savons ce que cela signifie pour Google. Des pages qui n'intéressent pas les internautes ne rankent pas éternellement. Si l'algo ne les plombe pas, les quality raters s'en occupent. En fait, il n'est pas si difficile que ça de faire monter une page. Ce qui est ardu, c'est d'être certain que la page en question "mérite" (3), selon Google, de rester au top, et de faire en sorte qu'elle évite les filtres à venir. Concrètement, une page qui reste au sommet donne satisfaction aux internautes qui la visitent :

  • ils la parcourent un certain temps ;
  • ils y reviennent ;
  • Ils y participent ;
  • ils succombent convenablement à l'offre qui leur est faite (transformation) ;
  • la page attire des liens depuis des sites d'autorité ;
  • son url est communiquée par mail et dans les réseaux sociaux ;
  • etc.

L'objectif n'est pas ici de lister tous les critères qui font qu'une page peut plaire ou non à Google. Il est de dire que si, dans les Serp, votre page a une qualité inférieure à celles qui l'entourent, elle sera tôt ou tard déclassée.

En résumé, une page plus intéressante que les pages concurrentes a très peu de chances de couler, surtout si elle est désoptimisée.

La qualité : indispensable, mais pas toujours suffisante

Hélas, tout cela ne fonctionne pas très bien. En réalité, sur vos requêtes fétiches se positionnent de joyeux spammeurs, inventifs et moqueurs, tout aussi impolis envers vous que blasphématoires envers le dieu Google. Ils sont même prêts, affront suprême, à vous renvoyer une partie de leur trafic moyennant rétribution. Certes ils prennent des risques, mais ils s'en fichent car ça paye. Et puis, quand ils sont enfin déclassés, d'autres irrévérencieux prennent leur place, à moins que ce ne soit les mêmes avec de nouvelles pages. Soyons clairs, Google a plusieurs trains de retard dans sa lutte contre le spam.

Le pingouin a bien noyé quelques manchots de seconde zone, mais d'autres sont apparus et, globalement, la qualité des Serp ne s'est pas améliorée.

Il est hors de question de lutter contre ceux qui prennent des risques avec leurs propres armes. Vous n'êtes pas suicidaire. Mais vous avez des atouts qu'ils n'ont pas. Votre projet est sérieux, il s'inscrit dans la performance et la durée. Lorsque vous le faites savoir, notamment à Google, vous pouvez donner à votre site un meilleur potentiel. Voici les chantiers sur lesquels travaillent les responsables des sites qui rankent facilement.

  • L'expérience utilisateur est sans cesse améliorée, pour des raisons de rentabilité.
  • Le site web reçoit du trafic hors Google, via la publicité, y compris Adword. Une page bien positionnée qui ne reçoit quasiment que du trafic organique a toutes les chances de ne pas être à sa place.
  • Deux types d'opérations, accessibles à tous, permettent d'acquérir des liens d'autorité : les relations presse en ligne (à l'intention des organes de presse) et le marketing d'influence (à l'intention des blogueurs).
  • Les réseaux sociaux sont investis.

Au final, Google reçoit les signaux lui indiquant que votre site est réellement populaire. Si votre site plaît, Google n'a aucune raison de le déclasser, même si ensuite vous avez besoin d'utiliser des techniques plus offensives pour positionner certaines pages. Vous évitez la plupart des filtres, rankez sans trop d'efforts et suivez avec un air narquois les conversations acharnées dans les forums de référencement.

Les liens que vous obtenez ainsi, le plus souvent méthodiquement désoptimisés ou stérilisés, ne vous font probablement pas gagner une seule position. En revanche, ils crédibilisent très fortement votre site web aux yeux de Google, et les actions de votre référenceur donnent alors d'excellents résultats.. Deux bénéfices :

  1. Les successeurs du pingouin ne vous effraient pas. Bien au contraire, vous les attendez avec impatience, vous délectant à l'avance de voir vos concurrents mordre la poussière.
  2. Google est indulgent avec votre site web, vous pouvez mettre en place avec bonheur des actions de linking plus agressives. Vous pouvez aussi ajouter quelques nouvelles occurrences de vos mots-clés dans vos pages.

Think global, act local

Ne perdez pas votre temps à tenter de comprendre le détail des filtres et de savoir si 25 % d'ancres optimisées font mieux ranker que 28 %, ou si le pingouin cible plutôt les manchots ou les canards. Une telle information n'est en réalité pas exploitable dans le cadre de la promotion de votre site web.

Suivre les évolutions de l'algorithme, c'est prendre du retard sur vos concurrents qui les anticipent. Prenez plutôt de la hauteur, visualisez la direction que prend Google et attendez-le au virage ! C'est dans un tel cadre que vous saurez orienter et doser vos actions SEO ainsi que celles que vous confiez à votre référenceur.

Une sélection de liens sur le même sujet

 

Notes

(1) En 2003, la Google dance Florida a généré de grands chamboulements les Serp, et accessoirement les mêmes critiques envers Google que Pingouin. Le phénomène s'est reproduit plusieurs fois depuis.

(2) Le filtre Panda, dans ses différentes versions, semble bel et bien contenir une composante visant à faire reculer les projets concurrents aux services de Google (exemple : les comparateurs de prix).

(3) Sur l'idée de mérite selon Google et la légitimité du discours de ce dernier, lire Google et Penguin, mise à jour contre le webspam.

 

Partager cet article
Catégorie : Blog.

21 réponses à Google Pingouin, le filtre pour les manchots

  1. Emmanuelle says:

    C’est surtout l’overdose bientôt, là, niveau Pingouin…
    Mais pourquoi venir y ajouter de pauvres petits canards… ? Suis très très inquiète !

  2. Jeff says:

     
    Pour la fête du travail je vois que tu n'as pas chômé Laurent ;)
     
    Je suis entièrement d'accord avec toi sur l’ensemble de ton article et on en revient encore et toujours sur les fondamentaux (structure du site, opti page,  linking interne et externe, liens de confiances et communautaires). Dès que l’on dépasse la ligne jaune on fait prendre un risque non mesuré aux sites. Il y as surtout des choses à faire avant de ne pas faire.
     
    Communiquer et surtout faire communiquer les autres, couvrir tout les canaux de communications. 
    Acquérir et fidéliser ces lecteurs, contributeurs, acheteurs …
     
    J’ai bien aimé le passage sur la pertinence des résultats ;)
    Très bon article. 
     
    Jeff.
     
     

  3. Mary says:

    Enfin un billet qui met les pendules à l’heure après une overdose de kinder pingui !

    Je te rejoins sur le fait que les règles sont connues depuis belle lurette, que désoptimiser permet de ranker et que les top positions seront toujours dominées par les techniques de référencement avancées. Ranker sur rachat de crédit en suivant les conseils de M Cutts, qui est partant ?

  4. Magicyoyo says:

    Plus ça change et plus c'est la même chose.

    Tu as tout dit :)
    Les luttes anti-spam de Google vont toujours la même direction, dans le sens de la qualité globale des sites… même si on peut discuter longuement de cette notion et de l'intérêt de Google à la faire pencher dans un sens ou l'autre.
     

  5. Christophe says:

    Très bon article, merci ! Je me pose une question, cependant : comment savoir si son site est suroptimisé pour google ? Il arrive qu'un mot clé soit souvent présent sans qu'on ait visé une suroptimisation. Par exemple, le site www.***.com/ (avec lequel je n'ai aucun lien) arrive 2ème sur le mot "C***" et le répète 200 fois sur sa Home… Vu que c'est une base de c****, est-ce normal, ou suroptimisé ?

    • Laurent says:

      Christophe, j'ai masqué l'exemple que tu donnes, histoire de ne pas stigmatiser publiquement tel ou tel projet. A part ça, à mon avis c'est clairement suroptimisé. Ce qui est plus difficile à savoir, c'est si le site passe entre les mailles du filet et est en danger permanent, ou bien si Google estime, par exemple par le comportement des utilisateurs, que le site est "pertinent" pour les internautes, et donc reste très tolérant sur les optis. Sauf audit approfondi, je ne sais pas en dire plus.

  6. Tony says:

     
    Bonjour et merci pour l'article,
    Pourquoi dire.
    Le site web reçoit du trafic hors Google, via la publicité, y compris Adword. Une page bien positionnée qui ne reçoit quasiment que du trafic organique a toutes les chances de ne pas être à sa place.
    Dans mon cas personnel, je ne fais pas d'adword que du naturel ( 80% de mon trafic). Mon site n'est pas que je sache suroptimisé. Et je suis tres bien positionné ( Positions 1 à 3).
    Je ne comprends pas pourquoi je ne serai pas à ma place si je ne fais pas de pub ?
    Merci

    • Laurent says:

      Aucun site web, y compris Wikipedia, n'envoie à Google tous les signaux positifs possibles. Si tu es dans un tel cas, c'est que ton projet a d'autres qualités qui font qu'il "mérite", selon Google, sa place. Par exemple, le robot a pu repérer que l'expérience utilisateur est très bonne ou que tes url buzzent régulièrement dans les réseaux sociaux. De plus, tout cela est relatif  et à comparer avec tes concurrents. Enfin, l'achat de pub ne convient que si ton business model s'y prête, bien entendu.

      Le fond du propos est de dire que l'absence de trafic hors résultats naturels fait louche : le site monte, Google lui envoie du monde mais en dehors de ça, personne n'en parle, personne ne vient directement sur le site. La publicité en ligne est un moyen facile de contrer cela, mais il y en a effectivement d'autres ! En tous cas, merci d'avoir attiré l'attention sur ce point, la phrase aurait dû être rédigée autrement.

  7. Fantomette says:

    je n'avais pas vu … merci pour le lien et vraiment très bon article :)
    Une question : Ma mémoire me fait défaut, mais pour Florida, Google n'était pas revenu en arrière ? avant de le remettre un peu plus édulcoré ? 

    • Laurent says:

      Merci :) De mémoire aussi, Florida (décembre 2003) était probablement en rapport avec le brevet Information retrieval based on historical data déposé autour de la même date mais publié, finesse de l'administration étatsunienne, en mars 2005 seulement (et remis au goût du jour par la suite). Je ne me rappelle pas d'un retour en arrière, mais ça n'a rien d'impossible, c'est bien arrivé pour d'autres séismes du genre. Si quelqu'un a ça sous la main…

  8. Antoine says:

    Un article qui fait du bien à lire. Plus on est quali en termes d'expérience utilisateur et donc qu'on envoie les bons signaux à Google et plus on peut se permettre des largesses SEO. Je connais des sites ultra optimisés mais présents depuis des lustres qui n'ont pas bronché, ni au passage de Panda ni à celui du Pingouin ;)

  9. Je suis Gasy says:

    Je suis Gasy et j'approuve ce message SEO.
    Clairement plus j'avance et plus je crois que le SEO durable et plus globalement le SEO tourné utilisateur sont les clefs. Pas forcement pour Google (il sera remplacé un jour… ou pas) mais plus globalement pour tous les moteurs de recherche. Qui ne voudrait pas indexer "le site en vogue" sur la requête où tout le monde le cherche ?
    Beau boulot donc et merci pour le billet.

  10. lionel says:

    Bonjour Laurent,
    Bravo pour ce billlet !  Deux passages me séduisent vraiment :
    "Google essaie de colmater les brèches dans lesquelles s'engouffrent, plus ou moins finement, les référenceurs"
    et
    "ont beau être présentés comme quelque chose de neuf, ils sont publiés tels quels depuis 2005. Les fondamentaux sont connus, rien n'a changé"
    Les déductions sont pleines de bons sens. Je pense quand même que Google s'oriente vers la création de notoriété avec les leviers des réseaux sociaux.

    amicalement

  11. Laurent says:

    Merci à toi :)

    Je partage ta dernière remarque, tout à fait pertinente, mais je reste convaincu qu'une présence dans les réseaux sociaux ne permet qu'à la marge à une page de prendre position dans un domaine un minimum concurrentiel.

    En effet, si la notoriété est un élément essentiel de la pertinence selon Google, je doute que les signaux que le robot reçoit des réseaux sociaux lui permettent d'associer facilement une url qui y est partagée à telle ou telle requête, à tel ou tel mot-clé, à tel ou tel champ sémantique. Oui, telle page est notoire car Google repère fréquemment son url dans les réseaux sociaux, mais sur quelle(s) requête(s) précise(s) est-elle pertinente selon les internautes ? Le linking et la magie des ancres (bien dosées !) restent à mon avis ultra-prépondérants pour la définition des classements dans les Serp.

    Autrement dit et pour schématiser, cette notoriété-là aide à conserver des positions, est même dans certains cas indispensable pour cela, mais pour atteindre les positions en question, le référencement "classique" reste à mon avis un passage obligé.

    Sur ces questions, je m'appuie notamment sur deux articles majeurs de Laurent Bourrelly : Popularité, notoriété et autorité sur le Web (il y montre à quel point ces notions sont diiférenciées) et Naissance du PersonRank (toutes les personnes susceptibles de relayer mon url ne se valent pas aux yeux de Google)… en rapport avec la médiocre qualité des Serp, avant et après Penguin et les divers Panda !

  12. Arnaud says:

    C'est surtout la gifle qui fait réfléchir, peut-être même qui donne une baisse de moral. Je fais différents types de sites au niveau de la couleur. Et lorsque mes projets sont sur du long terme je fais du blanc, et je n'ai jamais était inquiété. Mais maintenant quand je vois que des sites au référencement "sales" ne sont pas tombés (une histoire d'ancres très variées lors de blast) alors que certaines de mes sites fait de manières "sûres" (en tout cas rien de méchant : CP, annuaires) tombent, j'en viens a me demander comment google peut marcher autant sur la tête !

    • Laurent says:

      Merci pour ton témoignage Arnaud !

      Si ton site n'a que des liens d'annuaires et de sites de CP gratuits, ce n'est hélas pas étonnant qu'il connaisse des difficultés. Ces actions ne payent que rarement toutes seules. A contrario, le site qui a récupéré des BL issus de sites d'autorité est beaucoup moins sensible aux filtres genre Google Penguin, que le reste du linking soit "propre" ou "sale".

  13. Amrani says:

    Ta liste des actions permettant à Google de voir si une page est intéressante ou non n'est valable que pour les blogs je pense non ?
    Le site de mon entreprise locale n'est pas communiqué par mail ni sur les réseaux sociaux, pas de liens depuis des sites d'autorité, pas de commentaire car site pro, etc.
    Il ne peuvent que la parcourir un certain temps et faire une transformation, rien de plus…
    Cela veut-il dire qu'il restera au fond des serps ?

    • Laurent says:

      C'est valable pour toutes les pages que le robot doit classer, et cela se regarde de manière relative, en les comparant à celles des concurrents en visibilité sur les mots-clés liés à ton activité.

      Si les pages de tes concurrents sont meilleures que les tiennes, tu y vas avec un handicap (pas toujours insurmontable certes, mais c'est beaucoup plus difficile).

      Le plus ennuyeux est que tu dois marcher sur des oeufs concernant le linking si ton site n'envoie aucun signal particulier du type "je suis un site de confiance" à Google. Mais peut-être a-t-il d'autres atouts (ancienneté, BL d'autorité…).

  14. Axiosweb says:

    Un article complet qui récapitule bien quelques critères qui coulent sous le sens mais qu'on peut oublier très rapidement quand on a la tête dans le guidon. En revanche comme tu dis, ça ne date pas d'hier, le soucis est qu'il y a encore 4 ans, se préparer sur le long terme était difficilement viable car on était forcément moins visible que les spammeurs.
    La il faut dire quand même que Google essaye + de rattraper les BH, et il réussit plus ou moins bien. Il y a quand même moins de sites de m…e par rapport à y a 1 an, non?

    • Laurent says:

      Je comprends ton point de vue, et te remercie de le partager ici !

      Jusqu'ici, les bourrins étaient déjà sanctionnés, quoique plus discrètement, et on savait déjà ranker à l'aide d'un linking plus fin. Par exemple, le fait de désoptimiser des ancres a toujours permis de générer plus de liens sans trop risquer de se faire prendre, et donc de récupérer plus de jus sans encourir de sanction.

      Sur l'aspect Black Hat. Il suffit de se promener sur les forums de référencement pour s'apercevoir que Google Pingouin a aussi déclassé des sites sur lesquels travaillent des référenceurs tout blancs. La qualité et l'intérêt d'un site ne sont pas liés aux méthodes du référenceur. De même, l'aspect naturel du linking n'est pas dépendant de la couleur du chapeau du référenceur, ni du degré d'automatisation de son process. Il est plutôt fonction de son niveau de compréhension de l'algo.

      Quant à la qualité des Serp, tu as probablement raison au regard de pas mal de requêtes, Je déplore surtout le fait que ce qui est de plus en plus mis en avant, ce sont les services de Google, au détriment des autres sources d'information !

  15. Olivier says:

    L'article est intéressant, mais je crois quand même que si on travaille proprement au lancement d'un site, les filtres nous concernent beaucoup moins. D'ailleurs, as-tu remarqué que pingouin rime avec sagouin ?