La pénalité de Google Penguin: en sortir facilement.

Catégorie strategie
Tagged comme , , , , , , ,

 

Comme je vous l’ai annoncé dans mon article sur la mise à jour de google le filtre anti-spam de Google a fait une mise à jour plus qu’importante. De Google Panda 3.X nous sommes passés à Google Penguin (ou Google Pinguin, c’est la même chose). Résultat: des sites entiers sont déclassés. Officiellement les spammeurs, officieusement… on attend aussi quelques cris venant de SEO injustement sanctionnés car supposément white hat.

Sortir facilement de la pénalité de Google n’est pas à la portée de tous (c’est pour ca que je dis facile, non ? Non ? Ah…) mais je vais vous expliquer comment le faire et, au passage, analyser ce qui ne semble pas plaire au gros Google…

Déjà tu peux mettre du son, c’est du lourd.
Constatation 1: je n’ai trouvé dans les sites pénalisés QUE des sites qui ont reçu massivement des BL ou qui ont été créé depuis 1 an ou moins.

Je suis très sérieux.

J’ai analysé plus de 40 sites (dont 18 à moi) dont le référencement a sérieusement bougé (comprendre pas un +1 ou -1) et tous ont ce point commun. Soit ils existent depuis moins d’un an soit ils ont reçu des backlinks en dofollow sur la dernière année.

Les sites analysés ont aussi les points communs suivants:

  1. Sont déclarés à GWT (on m’a donc ouvert l’accès)
  2. Sont sous G-analytics (idem, on m’a ouvert l’accès)
  3. Ont des mouvements supérieurs à +/- 10 dans les SERPs depuis la MAJ du 24 avril.

De là j’ai commencé à chercher des similitudes ou des différences importantes. Il y a avait du site perso codé à la main, du site sous WP, du Joomla, du site sous plateformes autres de E-Commerce… je n’ai pas trouvé quoique ce soit qui ressemble à un lien de causalité entre le CMS utilisé la pénalité.

J’ai ensuite chercher à regarder s’il y avait des sites avec une sérieuse optimisation « onsite » par exemple le trio TITLE / H1 / META. Là j’ai découvert que 40% des pénalisés à la baisse avaient une forte optimisation des pages concernées ou du site. 40% c’est un indice mais, pour moi, ce n’est pas une preuve que optimisation onsite = pénalité.

Après j’ai cherché si à l’inverse ceux qui avaient connu une forte hausse étaient « non optimisés ». 75% des sites avaient le trio TITLE / H1 /META !!! C’est beaucoup plus fort que précédemment et tendrait même à dire que le trio gagnant est… encore plus que gagnant. Pour moi, donc, il ne faut pas vraiment en tenir compte pour comprendre le Google Penguin.

Je vous passe tous les tests réalisés et vous livre donc ma 1er constatation: 100% des sites avaient reçus massivement des BLs depuis un an ou avaient moins d’un an de vie.

Constatation 2: 70% des sites pénalisés avaient des BL venant de sites dé-indexés ou de forums / commentaires

Vous imaginez bien que j’ai creusé les BL datant de moins d’un an des sites pénalisés. Et voilà le résultat. Seuls 30% des sites pénalisés avaient des BL contextuels venant de sites non sandboxé par google… Tout le reste avait clairement été poussé à la main (ou pas) sur des networks de sites de communiqués de presse… privées ou pas… lorsque ce n’était pas des « blasts » de Xrum, du Scrapebox en masse ou du Zeno… bref vous avez compris.

Constatation 3: le 30% de sites restants avaient des landing pages sur-optimisées

Ah ! Là ca me plait. Là le 30% il me parle ! Il me parle car je comprends que pour Google la sur-optimisation des pages n’est pas sans conséquences directes sur le référencement. Je veux dire chuter lorsqu’on a Xrumé comme un porc en rut toute une semaine, je comprends… Mais payer car on a « fortement » indiqué à Google de quoi parlait notre page… hum…

Ben ça me plait, ça me parle mais j’y crois pas. En fait je ne crois pas que la sur-opti soit la cause. Non. Je pense qu’elle était avec un autre signal un symptôme de quelque chose dont, ensuite, la conséquence a été -XX places.

Pour la suite je vais donc travailler ces sites restants et leurs pages…

Constatation 4: 100% des pages / sites en question avaient un taux de rebond supérieur à 45%.

Ahhhhhh… Là c’est autre chose.

Je veux dire mettons-nous deux secondes à la place de Google.

Le site / la page « jevaisencaisserunmax.com » a moins d’un an et:

  • Title: Je vais encaisser un max
  • Meta: Je vais encaisser un max avec cette page pour encaisser un max sur internet. En plus je vais dire que je suis de gauche et contre ceux qui vont encaisser un max, fuck le système mais je vais encaisser un max.
  • H1: Je vais encaisser un max

Et quasiment la moitié de mes utilisateurs (nous sommes google) lorsqu’ils trouvent le site dégagent immédiatement ? Vous connaissez vous une entreprise qui aime que allez « au minimum » 40% des utilisateurs gueulent sur un des produits qu’elle vend ? Je veux dire 40% putain de % vous savez ce que c’est ??? C’est énorme !

Donc oui, si je suis google, je dégage la page. Zou. Out. Fissa. Bye. Tchao. Va jouer aux billes, boulet. Et si vous voulez une autre « preuve », voici un de mes sites qui a 4 ans, reçu aucun BL massivement (+80) cette année, un peu de CP (aucun pénalisé, que du thématique) assez optimisé (mot clefs dans domaine, title, H1 etc…)…

 

Vous le voyez le site au Gasy ? Vous savez sur quoi j’ai perdu ? La requête en bois à 57% de taux de rebond à -20, les deux à 33% à –7/-8. Sur le reste, et surtout ma principale, c’est du +50% et tous les jours un peu mieux. Imaginez la requête à 12% de rebond j’étais 18ème et je suis second là… Mes concurrents dans les SERPs (dont un site over Xrumer) se sont fait exploser l’arrière train par Google…

Conclusion: comment faire copain / copain avec Google Penguin ?

  1. Faire un site bien pensé utilisateur et maintenir le rebond faible. Si vous le voyez monter, inquiétez-vous et réagissez. Pensez référencement durable et non coup financier…
  2. Garder une bonne optimisation on site.
  3. Comprendre qu’à mon avis les BL pèsent un peu moins maintenant, surtout s’ils ont moins d’un an.
  4. Comprendre que pour Google après 365 jours, c’est la pré-histoire.
  5. Comprendre que jouer avec le feu (Xrum and co) a des conséquences et les assumer

PS: oui ton MFA a pas bougé, tu as de la chance ;-) Ton gros site de spin non plus ? Chanceux ! ;-)

PPS: tu n’es pas dans le cas que je décris ? Bon j’ai pas dit avoir décodé l’algo de Google non plus hein… *modeste*

 

Recherches concernées:

66 Commentaires

  1. Soul dit :

    J’ai pris un +20 sur une requête ou j’ai 75% de taux de rebond, par contre mes visiteurs restent plus d’une minute sur le site en moyenne.
    J’ai un autre site ou il y a encore un plus gros taux, qui est référencer en bh et ou les visiteurs restent 30s en moyenne et ça n’a pas bouger, pourtant c’est du 100k+ recherches mensuelles et je suis en 1ére pas ;)
    Mais sinon dans l’esprit c’est pas con mais il n’y a pas qu’un seul critère à mon avis, merci pour ton partage.

    • Gasy dit :

      Très interessant, mais est-ce que ton site Soul entre bien dans tous les critères que j’ai analysé:

      1) Moins d’un an
      2) Super optimisé
      3) Afflux massif (je pense vu que tu dis BH) de BL

      Si oui, je vais creuser un peu plus le temps sur le site car cela pourrait être un effet positif pour amoindrir l’effet négatif d’un fort taux de bounce. Très intéressant.

  2. Fantomette dit :

    Sur le réseau secondaire de sites, je n’ai pas eu le temps de regarder mais effectivement ca a l’air d’être à peu près ca !

    j’ajouterais un point : une ancre unique j’ai pris -30 sur mon pseudo où depuis 1 an 95 % des liens sont sur mon pseudo.

    • Gasy dit :

      L’ancre unique a donc joué contre toi ? C’est aussi une tendance forte et logique pour lutter contre les spammeurs qui spinent 3/4 mots clefs en ancre vers l’URL du money…

      Par contre, et là je suis étonné, je viens de remonter des stats d’un site de folie, super propre, 100% dans son domaine et aucunement référencé hors des guidelines… et pourtant il a une grosse claque dans la face. De numéro 1 il tombe numéro 10. A étudier pour comprendre…

  3. GG dit :

    Merci pour les analyses des résultats de tes tests Gasy.

    Je pense que la suroptimisation de l’ancre est un gros critère qui s’ajoute à ta constatation (si keywords présents dans ancre, alors je ne ranke pas).

    La notion d’âge est importante, effectivement si moins d’un an risque de « petit coup SEO pas cher » pour faire du BL facilement, donc risque de spamming.

    • Gasy dit :

      Oui je penche aussi pas mal dans le keyword sur l’ancre, je pense même qu’il est un signal fort limite pour du NSEO (mais cela serait un autre débat…).

  4. diagnostic-immo dit :

    Un taux de rebond élevé peut être un signe de pertinence du site aussi, je pense que google allie taux de rebond et temps passer sur la page. Car ils ne sont pas genre à pénaliser les sites pertinent.
    En tout cas, merci d’apporter votre pierre à l’édifice qui nous mènera à la compréhension du nouvel algo.

  5. Bonne analyse des causes, mais pas suffisante à mon sens, car il s’est passé pas mal de choses inexpliquées avant le 24/4 mais plutot autour du 16/3

    • Gasy dit :

      Bien sur d’abord c’était la chasse aux CPs, surtout autour de la mi-mars et même, en fait, un peu avant.

  6. Fausse piste le taux de rebond, j’ai un site pourri de test qui truste la pôle et qui n’a pas bougé….

    • Gasy dit :

      Déjà ce n’est pas terminé pour la « danse » et, ensuite, je sais bien que beaucoup de monde a encore des sites qui trustent des 1er positions. Ceci dit je te souhaite rester en place ;-)

      Si Google avait nettoyé le WEB… héhé ca se saurait. Et même pour rentrer dans l’analyse il faudrait que le dit site soit âgé de moins d’un an (hum ?). D’ailleurs je viens de récupérer un beau site 100% spin mais « trop agé » pour moi, 2 ans. Ce site trust une dizaine de TOP 10 (une honte).

      Ce qui m’intéresse c’est de trouve la tendance pour déployer ensuite des stratégies SEO fortes et durables.

      Or, pour n’utiliser que les sites que j’ai à disposition, particulièrement celui dont les stats sont dans le post, lorsque je vois que les seules pages à baisser sont celles avec un « haut » taux de rebond, je pense que c’est un signal. Pas LE signal mais… un signal.

  7. adwords dit :

    Je plussoie detectimmo: ma plus belle progression (de trafic, pas de position sur des blockbusters, ils ont à peine bougé) est un site de bombreuses fiches bricolage précisément optimisées et qui remonte donc sur une traine composée d’une poignée d’expressions faible trafic pour chaque page. comme les gens trouvent ce qu’ils veulent en arrivant, le rebond y est énorme —> contre exemple
    Par contre, les temps de lecture sont longs.

    • Gasy dit :

      C’est pas un contre exemple, c’est une piste avec le lien taux de rebond / temps de lecture. Cela impliquerait qu’ensuite GG surveille si l’internaute fait ou ne fait pas à nouveau la recherche… et pénalise si le dit internaute cherche encore. Ca me parle ca. Merci pour l’info ;-)

  8. adwords dit :

    j’ajoute que mon plus gros gadin est un site ecommerce avec rebond de 30-40% datant de 5 ans. 2e contre exemple.

    • Gasy dit :

      Yop mais moi je n’ai bossé que sur des sites de moins d’un an ou un an max.

      Pour les autres j’ai pas de stats à analyser… difficile donc de faire le rapprochement avec ce qui précède. Par contre un site de e-commerce qui se prend une claque, ca doit faire mal au revenu ca, good luck…

    • adwords dit :

      Heureusement, le site est équilibré 1/3 nat, 1/3 adwords, 1/3 référents, et la marque est développée, donc il y a aussi un trafic direct non négligeable. Les 40% de baisse de trafic nat ne se traduisent donc que par 13% de baisse globale.

    • Gasy dit :

      Comme on dit il ne faut jamais dépendre d’une seule source. Très bonne ventilation si tu veux mon avis (au pire je le donne quand même héhé).

  9. mookmook dit :

    Salut,

    Moi des sites de 2/3/4 ans ont sautés, aucun n’a analytics ou gwt. Par contre c’est eux qui ont les liens avec les ancres les moins diversifiées…

  10. Yassine dit :

    bonjour et merci pour ta contribution:
    concernant le taux de rebond j’ai 4 sites qui ont des taux de rebonds de 80 %. tous ces sites n’ont rien prix.
    [Modéré: pas de singe dans la place, merci !!!]

    • Gasy dit :

      Idem est-ce qu’ils rentent dans les critères que j’ai analysé ? Le moins d’un an, analytics + GWT tousssa tousssa ?

  11. Jacques dit :

    Excellent article, c’est le plus concret et le plus intéressant que j’ai pu lire depuis la sortie du filtre. Pour mes propres sites, j’ai pu constater des pénalités plus importantes pour les pages sur-optimisées, alors que de nombreuses autres pages ayant reçues le même linking n’ont pas été pénalisé (des pages désoptimisées). Comme tu l’as bien souligné, je pense que c’est clairement le combo linking + suroptimisation qui s’avère dangereux.

    • Gasy dit :

      Pour les sites étudiés (comprendre jeune ou soudainement très actifs) je pense que oui. GG doit surveiller la montée en charge du linking et sanctionner si elle se traduit pas une baisse du taux de rebond (donc une hausse de la déception client)…

  12. Gwaradenn dit :

    En étudiant des sites récents, tu peux exclure les critères internes (du moins les minorer), mais tu passes à côté de données interressantes. J’ai des sites qui ont plus de 6 ans (MFA) qui sont tombés et pourtant je n’ai pas fait de liens depuis bien longtemps (cf ta règle de 365 jours) et je ne suis pas le seul. La majorité n’ont pas analytics et GWT et ont un bon taux de rebond…
    Si je croise mes données et les tiennes (ta conclusion) :
    Se focaliser sur l’internaute.
    Avoir un site optimisé (même si je tente la desoptimisation sur certains sites).
    Éviter des gros blasts.
    Éviter de générer des liens au même endroit (typologie de liens).
    Éviter l’utilisation des mêmes ancres.

    Cela reste des suppositions, à tester…

    • Gasy dit :

      Comme dit plus haut j’ai pas encore décodé tout l’algo ;-)

      Mais sur 40 sites il y a un tendance très forte et ce n’est jamais innocent avec Google.

    • Gwaradenn dit :

      J’ai un panel de MFA qui dépasse plusieurs centaines de sites (entre les miens et ceux des copains) et je peux te garantir que cela va dans ce sens. Tout comme toi je ne détiens pas la vérité, mais en recoupant les données, c’est ce qu’il en ressort. :)

      ps : si tu pouvais confirmer à Aymeric que je ne suis pas toi et réciproquement, cela m’arrangerait. ;)

  13. solstix dit :

    Chez moi, le mot-clé qui a sauté (mon mot-clé principal) est justement celui qui avait le plus faible taux de rebond (27%)…

    • Gasy dit :

      Curieux, ton site entrait dans le panel ? Moins d’un an ou actif depuis un an ? Arrivée massive de liens ? Etc…

    • solstix dit :

      Moins d’un an oui, arrivée massive de lien… j’ai pas fait le cochon, et j’ai plus de nofollow que de dofollow pour paraître justement « naturel ». 7000 liens entrants, dont seulement 1000 dofollow…

    • Gasy dit :

      + 7000 en un an ? Ou 7 000 en tout dont 1 000 dofollow ?

      Si c’est la seconde option à mon avis tu t’es fait crucifier pour autre chose alors. Comobo opti par exemple ?

    • solstix dit :

      7000 en tout, mais beaucoup de ces liens sont des « Meilleurs commentaires » ou « Derniers commentaires », donc j’apparaît sur toutes les pages du site en nofollow. Niveau optimisation, j’avais toutes les pages de mon site qui dirigeaient vers la homepage sur le mot-clé principal. J’ai tout viré, j’attend de voir ce que ça donne… Sinon rien de BH, que de l’optimisation selon les bonnes pratiques de maître GG !

    • Gasy dit :

      Oui je pense que tu as trouvé the couille dans ton linking… l’origine (meilleurs commentrucs, GG aime de moins en moins) et surtout l’interne. Je veux bien lire la suite de ton aventure…

  14. Emmanuelle dit :

    Salut Gasy,
    [ oh Gasy, tu devrais pas m’laisser la nuit, j’peux pas dormir j’fais qu’des conneries ]
    Y’a du bien pertinent, j’ai l’impression, dans tout ça.
    On en reparle dans quelques jours….

    • Gasy dit :

      Y a plus que du pertinent, y a du Gasy ! C’est Magnifik !!!

      Pour le reste, la nuit, faut pas trop penser à moi. Sinon non seulement on chante la mer mais, en plus, on reprend la 1er place dans les SERP. Manquerait plus que le 7ème pour que ca passe d’Alain à Guesch. Emmanuelle, Emmanuelle, oh, tiens le bien…

  15. referencement dit :

    Et comment google pourrait il connaitre le taux de rebond. Par exemple, moi j’utilise uniquement piwik pour mes stats. Par ailleurs, sur un site e-commerce, quand l’internaute tape « marque modele » et fait toutes les boutiques les unes derrières les autres juste pour comparer le prix le taux de rebond est forcement élevé. Qu’en dire dans ce cas ?

    • Gasy dit :

      1) Piwik, je suis en train d’écrire un article dessus. Très intéressant et je l’ai sur un site aussi. Il faudra intervenir à ce moment là.
      2) Taux de rebond: Google sait tout ce qu’on fait chez lui et un retour arrière c’est pas compliqué à suivre. Ca s’affine oui avec GA et GWMT, mais ca peut se mesurer de plein de façon. Si l’internaute est loggé c’est encore « mieux » pour le GG.
      3) J’ai analysé comme dit plus haut des combos GA + GWMT. Donc ce qui se passe sur des sites « sans », si intellectuellement je veux le savoir et y penser, pour mes stats… bha ca aide pas. De là à dire que si on a GA le bon GG ajoute un critère à l’analyse du site car il faut fortement l’affiner (le taux de rebond), ca ne me choque pas…
      4) Pour tes boutiques, là, justement je « sèche » on dira. Ce n’est le cas sur aucun des sites que j’ai pu regarder. Est-ce que l’acheteur fait des aller-retours ? Est-ce que lef ait que des boutiques utilisent normalement analytics e-commerce (différent de la version normale dans les stats donc) apporte autre chose ? A creuser.

  16. Il n’y a à mon sens aucune explication rationnelle, à moins d’avoir échangé avec l’algo de Bing…:o)

  17. lionel dit :

    Bonjour Gasy,

    Je vais commencer par te remercier pour les retours apportés dans ce billet. C’est très instructif. Je pense qu’il faut encore patienter un peu pour tirer des conclusions fiables et je crois qu’il va falloir désormais compter sur la création de valeur et de notoriété (réseaux sociaux) pour améliorer le positionnement d’un site Web.

    amicalement

    • Gasy dit :

      Ouaips… surtout que les stats que j’ai ne sont que sur quelques critères et pour des sites bien particuliers… faut attendre et partager ;-)

      Je prépare un billet, à la suite de ce post, sur les réseaux sociaux et l’implication des utilisateurs. La raison principale (car perso ca me gonfle le go social) est que je n’entends pas beaucoup de cris venir des gros sites soutenus (je dis bien soutenus) par une armée de fan investis… Comprendre ceux qui font plus de community que de SEO…

  18. Ninie dit :

    Plus je lis d’articles et de commentaires plus je me dis qu’il y a:
    1- une succession de filtres
    2- une intervention humaine en bout de chaîne.
    GG Google.

    • Gasy dit :

      L’intervention humaine en bout de chaîne est, selon moi (et selon le brevet déposé par GG, putain faut que je retrouve ce lien), fonction des signaux des filtres. Si tout est rouge, ca dégage cash. Si c’est orange, c’est l’humain qui valide. Je résume hein…

    • ninie dit :

      5/5
      je trouve qu’il y a beaucoup d' »orange » avec ces filtres et du coup on se retrouve avec des résultats anarchiques qui traduisent l’intervention humaine.
      mais ça c’est seulement à la condition que tout les webmasters aient bien saisi et donc répondu correctement aux interrogations.
      d’ailleurs y’a un questionnaire qui traine sur le net, j’y ai répondu mais aucune idée si les résultats seront publiés ni quand.

      https://docs.google.com/spreadsheet/viewform?formkey=dHlWRDk4VHhhMm5Yanp5Tjh4OERLZ2c6MQ

      pour le taux de rebond c’est vraiment con si c’est le cas.
      j’ai un taux de rebond élevé sur pas mal de pages et c’est narmol.
      l’info est là pas besoin de chercher 12 à 14h.
      et c’est le cas pour 95% de sites d’actu mis à jour quotidiennement. Pourtant ils trustent toujours les serps.
      bref, le taux de rebond ne devrait pas être un élément déterminant.
      si c’est le cas, google t’es encore plus con que ce que je pensais.

  19. Date dit :

    Le taux de rebond peut être effectivement très important comme la durée pendant laquelle un internaute reste sur le site.
    Sauf que de nombreux sites fournissent, je le pense, l’information clé le plus rapidement possible. Autrement dit le lecteur se pose une question, il lit la réponse rapidement car mis en valeur, puis peut partir. Il ne souhaite pas lire des dizaines d’autres pages, ni connaître le temps qu’il fera demain, juste avoir son info.
    Aussi, un site seul ne peut pas vraiment savoir si cela influence google.
    Seul le moteur de recherche sait si l’internaute a eu sa réponse, car il ne cliquera pas sur d’autres résultats après.

  20. SEOfrog dit :

    Je suis d’accord avec l’unicité (ça se dit ça?) des ancres des BL. J’ai un site qui avait résisté panda et qui est tombé le 26, les ancres étaient pour la plupart uniques => pénalité -950.

    • Gasy dit :

      Oh oui ca doit se dire, et puis si ca se dit pas… ben on vient de l’inventer !

      Est-ce que ton site a été pénalisé ou juste son ranking ? Sandbox ou recul infernal dans les SERPs ?

    • SEOfrog dit :

      Le site entier a été pénalisé (Visites organiques depuis : 1 :D). Pour tous les keywords, recul infernal dans les SERPS.

    • Gasy dit :

      Ah oui toi tu es dedans là… bonne chance doublement bonne chance…

  21. Steph dit :

    Je crois pas trop au signal « taux de rebond ».
    Sur un article de blog, j’ai 68,83% de TR pour un échantillon de 600 visites, temps moyen de 3m42s –> a reculé légèrement dans les SERP (-5 places)
    Sur une landing page, j’ai 8% de TR pour un échantillon de 400 visites, temps moyen de 20s –> ne repond plus aux KW principaux (comme bcp d’autres landing pages travaillées à coup de BL)
    Grosse suspicion de sanctions sur la qualité du netlinking offsite (BL dans la thématique ou pas, BL ancrés ou pas …)
    Sinon +1 pour ceux qui n’ont pas travaillés leur SEO dernièrement, eux n’ont pas morflés du tout.

  22. Baptiste dit :

    Je ne crois pas au taux de rebond comme tu le présentes, le seul « rebond » pris en compte par Google est le retour aux résultats de recherche (bounce back to results). C’est bien normal puisque environ 1/3 des sites seulement utilisent GA.
    Par ailleurs, ce signal est plutot utilisé par Panda, mais peut être est il utilisé par le Pinguin, qui permet de mettre à jour les SERPs bien plus rapidement.

    • Gasy dit :

      Il faut bien comprendre que les données parlent « toutes seules ». A nous de savoir comment les utiliser.

      100% des sites que j’ai pu étudier sont sous GA. Donc mon étude montre que blablablabla toussa toussaaa tousssa. Ce n’est pas possible (ca serait même con n’ayons pas peur de le dire) de l’appliquer à l’identique à des sites qui ne sont pas sous GA. Tu as donc raison.

      Par contre garder ce signal (le taux de rebond), même en version bounce back to results, me semble très intéressant. Et bien sur le rapprocher d’autres signaux…

  23. L’analyse continue
    Une piste : Le ratio :
    Densité de BL ancre identique provenant d’une même IP/nb total de BL
    et ce pour chaque page
    A vous les studios !

    • Gasy dit :

      Tu as des pistes ? Des chiffres ?

      Fantomette a, sur son blog, donné une belle piste à ce sujet. En gros ancre unique vers page ou home = signal qui sent mauvais, limite à se faire sanctionner sur la dite ancre, pour le Google ;-)

  24. Bonjour,
    Un autre article sur le sujet qui met en avance les incohérence de Google dans sa stratégie et l’application de filtre tel que Pingouin http://www.blog.convertic.fr/google-penguin/

  25. julien dit :

    Hello,

    Très intéressant. J’ai un 3 sites qui ont sauté, 2 sont récents (moins d’un an) et le 3eme avait de mauvais backlinks.
    Les 3 sont sur GWT et GA et celui qui a prit le plus cher avait effectivement des taux de rebond élevé 75 %…

    Même si rien n’est prouvé entre TX de rebond et positionnement, je crois que je vais travailler sur cela avant tout…

  26. Oweia dit :

    Hello,

    article intéressant… un bémol sur le taux de rebond, même si je pense aussi que c’est un critère qui peut être monitoré par Google et qui a un impact, j’ai des sites aux taux de rebond > 60% qui ont plus que gagné des places… par contre, malgré ce taux de rebond important, la durée de visite moyenne est importante. Peut-être que Google compare les taux de rebond des différents sites sur les requêtes… ?

    • Gasy dit :

      Bonjour Oweia,

      Je partage ce sentiment, il doit y avoir quelque chose de mathématique derrière le facteur qualité et, si les données sont disponibles pour google, le tx de rebond et le temps passé sur le site doivent jouer. Rapport à une moyenne de sites dans la même niche… ou le même thème… j’imagine !

      Merci du commentaire.

  27. websilon dit :

    Salut à tous et merci Gasy pour le boulot fort intéressant et qui ouvre le débat

    à mon avis le taux de rebond a un impact mais pas le taux de rebond « fictif » qu’on a sur GA mais un indice de rebond pertinent (dont seul GG connait la formule) qui tient compte du comportement de l’internaute sur le site (temps resté sur la page puis navigation à l’intérieur du site, page de sortie, retour sur le moteur ou pas…).

    Pour moi, je ne vois pas de raison qu’il y ait un lien avec l’utilisation de GA et de GWT ou pas, ça serait contre productif pour l’index de GG (peut être pour affiner un peu plus ou pour fliquer les SEO).

    Je n’ai personnellement qu’un site qui a vu quelques baisses dans les SERP mais seulement sur quelques mots clés et bizarreement sur des mots clés que j’ai bossé récemment et notamment avec quelques commentaires (une dizaine mais sur un temps assez court) humains sur des BLOGS (avec différentes ancres liés à la même sémantique). Mais seules les ancres qu’il n’étaient pas protégées par des liens « fort » issus d’Annuaire reconnus et de CP sérieux.

    Ce site :
    – il a environ 1 an et demi
    – utilise GA et GWT (comme tous mes autres)
    – n’a que des liens cleans (bien que certains sites de CP se soient fait pénalisé depuis), réguliers, avec des ancres très variées, du dofollow/ nofollow, de nombreux domaines référents
    – le site a un taux de rebond d’environ 50% et un temps moyen de 3 min 20 (pas de différences notables entre les taux de rebond des MC pénalisés avec les autres)
    – fait le yoyo +/- 20 sur quelques mots depuis le 24/04 (en ayant perdu beaucoup au final sur les mots clés qui montaient et qui étaient en 2 / 3 / 4ème page).

    Le problème avec ces liens de BLOGS, c’est qu’il renvoient de nombreux backlinks avec les système de « derniers commentaires »… résultat, ces liens foireux sont tous sur le même mot clé.

    Ce qui est marrant, c’est que les visites augmentent toujours depuis alors que les impressions su site dans les SERP ont diminué de moitié (les mots clé pénalisés n’ataient quasiment jamais en première page)

    Pour moi, plus que jamais, il faut bosser sur la longueur (1 an minimum), si possible ne jamais s’arrèter de créer des liens, les backlinks doivent être le plus possible sur un site de même sémantique (voire une catégorie ou mieux un sous domaine), du contenu pertinent (le plus possible), du réseau social, des likes, des partages, des CP mais pas trop, des Annuaires… et si les positionnements descendent à la suite de Pingouin, rebosser les mots-clés visés comme si de rien n’était en faisant surtout des contenu de grande qualité (et si possible très long => 1000 mots avec un lien ou 2), Avec cette mis à jour, plus que jamais, Google essaye de mettre l’utilisateur au centre de son moteur (et de ses multitudes de services), l’histoire nous dira si il y arrive.

    En tous cas ça fait peur vu la facilité déconcertante qu’on a désormais pour faire du négative SEO sur un jeune site. Même un enfant de 5 ans pourrait péter le positionnement d’une jeune entreprise.

    Et pour ceux (qui sont honnêtes) qui veulent faire monter un site rapidement en claquant des doigts, dites leur que ça s’appelle Google Adwords !

  28. radiateur électrique dit :

    j’utilise des sites de communiques de presse pour publier mes articles mais je trouve de plus en plus des sites pénaliser avec google pingouin

  29. Pantalons.com dit :

    Un gros taux de rebond n’est pas forcement une mauvaise chose pour l’expérience utilisateur.

    Exemple avec les sites du style horaire.com etc, le visiteur trouve l’horaire de La Poste sur la landing page, L’expérience est parfaite !

    Et inversement sur les sites de torrents par exemple, il faut cliquer 300 fois pour lancer le téléchargement, l’expérience est a chier.

    Et pour conclure, le taux de rebond de GA est artificiellement modifiable.

    • Gasy dit :

      Oui… mais il faut comprendre que taux de rebond n’est pas du tout le fait de rester longtemps sur le site ou pas… mais de faire une recherche, arriver sur un site et faire retour arrière… pour aller ailleurs.

      Ce n’est pas une question de site mais de pertinence générale du site ou des pages sur des recherches précises.

  30. Finamedia dit :

    Je ne suis pas spécialement d’accord avec l’analyse. J’ai un site avec un temps de visite moyen de 15 minutes qui à été touché par penguin, le site est très apprécié voir plebiscité sur le net. Mais c’est gênant aussi pour GG qui voit donc ses recherches et affichages baisser sur mes requêtes, donc perte sur les adwords. Ceci peut expliquer cela car niveau BL, rien de transcendant, que des liens sur sites d’autorités, beaucoup de lien wikipedia et quelques commentaires…

    • Gasy dit :

      Il me semble trop facile d’expliquer que pour protéger adwords GG a choisi de flinguer ton site même si, au final, je suis de ceux qui pensent que Google met en place des processus qui aident adwords (ou tout autre source de $$) plutôt que l’inverse.

      Pour ton site, à mon avis, il doit y avoir une cause autre et encore à trouver.

  31. Pierrick dit :

    De mon côté je cherche toujours une solution, je suis remonté de page 8 a page 2 sur ma requete de prédilection : « musique libre de droit » en pratiquant de la dilution de liens à outrance, mais cela represente une masse de travail considérable.
    Une chose est sure, trop d’ancres = mauvais, même si il y a de nombreux contres exemples, cette piste est une piste sure…

    • Gasy dit :

      En mon sens tu peux essayer, sur ton ancre, des déclinaisons de traine. Du type « La musique libre de droit », « tout sur la musique libre de droit » ou encore « informations musique libre de droit » etc…

  32. Stéphane dit :

    Merci pour ces conseils le pingouin à fait des ravages.


Trackbacks/Pingbacks

  1. Google Pingouin : Comment S'en Sortir Et Anticiper Les Evolutions
  2. agence de netlinking