Quand bien même le CTR et le Pogo-sticking n’est jamais quelque chose que l’on néglige, cela reste dans la plupart des cas un axe de développement mineur d’un site. En effet, la grande majorité des sites est soit construit autour de CMS, soit autour de templates qui respectent les habitudes des internautes, assurant ainsi des performances minimum à ce niveau.
C’est aussi et surtout, un axe de développement qui, souvent, vient bien après de multiples autres optimisations majeures qui elles même prennent du temps à être intégrées et donc mangent l’immense majorité de la roadmap SEO.
Il arrive toutefois que certains sites, soit parce qu’ils ont voulu innover, soit parce que l’UX n’était tout simplement pas en adéquation avec les cibles, voient leur performance particulièrement dégradées par rapport à ce que l’on peut imaginer de la concurrence.
Pour ma part, j’ai rencontré pour la première fois en presque 10 ans de SEO et ce malgré l’opportunité d’avoir travaillé et accompagné des centaines de sites (je n’ai jamais compté ? disons une centaine, c’est déjà pas mal ;)), un site dont les performances SEO semblent complétement pénalisées pour des mauvaises performances utilisateurs (CTR + Pogo sticking).
Petite précision : on appelle Pogo sticking le taux de rebond des SERP, à ne pas confondre avec le taux de rebond du site. En effet, si j’arrive sur une page de contenu et que je trouve l’information recherchée, je pourrai quitter directement le site et donc générer un rebond tout en ayant trouvé satisfaction. Inversement, si j’arrive sur un site sans avoir trouvé l’information, j’aurai tendance à revenir dans la SERP pour cliquer sur un autre site. Dans les 2 cas on constate un rebond sauf que l’un est « positif » et l’autre négatif.
Est-on sûr qu’il s’agit réellement d’indicateurs utilisés par Google ?
La réponse de Google est sans appel : non, l’algorithme n’utilise pas ces données. Des tests de SEO dans le monde, du moins ceux que j’ai pu suivre, ont d’ailleurs tendance à lui donner raison, même si ceux que j’avais suivis commencent à dater un peu.
Malgré tout, de plus en plus de SEO sont convaincus de l’importance de ces facteurs (moi y compris) pour deux raisons.
La première étant de la logique : c’est un critère de pertinence et Google cherche de la pertinence. Certes on peut essayer de le tromper mais ça fait à peu près 20 ans qu’il en a conscience et qu’il sait plus ou moins bien s’en protéger.
La deuxième raison étant les dernières évolutions du moteur et notamment Rankbrain qui occupe désormais une place majeur au sein du moteur (le 3ème critère de positionnement d’après le co-fondateur du projet Google Brain). Rankbrain en quelques mots, reformule selon ses propres termes les recherches des utilisateurs pour les préciser le plus possible (chaque requête reformulée fera par exemple une 20aine de mots au lieu de 2 ou 3). Comme ce dernier est basé sur du machine learning, il a besoin de faire du test & learn et donc de tester des sites sur des requêtes pour affiner sa pertinence.
Comment savoir que le site souffre de Pogo-Sticking ou de faibles CTR ?
Une chose est sûre, les effets de ce type d’indicateurs ne concernent pas nécessairement le SEO du site dans sa globalité mais plutôt des mots clés spécifiques (et notamment concurrentiels).
Si vous suivez les performances SEO globales de votre site, vous ne remarquerez peut-être rien, notamment si la longue traîne correspond à une grande partie de votre trafic.
Ainsi, dans mon cas, je suis environ 400 mots clés du site concerné. La tendance générale pour ces mots clés (tous concurrentiels) a d’abord était positive avec une hausse régulière sur ces derniers, à la suite d’optimisations diverses.
Atteint un certain niveau, disons une majorité de mots clés en première et deuxième page de Google, la tendance s’est inversée et sur ces mots clés spécifiques, le site a commencé a baissé régulièrement et cela pendant plusieurs semaines jusqu’à aujourd’hui.
Malgré la baisse sur ces mots clés spécifiques, le site a connu une légère hausse (/stagnation) sur la même période, en termes de clic et d’autres indicateurs SEO que l’on peut trouver sur Ranxplorer ou Semrush par exemple.
Le site est relativement bien optimisé (et continue de l’être semaine après semaine), avec un contenu bien travaillé pour l’ensemble de ses pages et un travail de netlinking régulier.
Ainsi, difficile de comprendre ces performances, jusqu’à ce que l’on s’intéresse aux métriques utilisateurs. Et là, tout devient plus clair : fort taux de rebond (jusqu’à 80% sur certains mots clés, qu’on peut facilement associer à du Pogo-Sticking) et CTR trop bas, constatés après une étude que je ne développerai pas ici.
Comment réagir ?
Encore une fois, le site est optimisé d’un point de vue SEO et cela à quasiment tous les niveaux. Ainsi, pour réagir face à ce type de situation, il faut presque enlever sa casquette de SEO et se poser différentes questions.
Le contenu que l’on a développé sur certains mots clés est-il réellement en adéquation avec ce que recherchent les internautes ?
Question plus que légitime et qu’il est nécessaire de se poser avec beaucoup d’humilité. A première vue, j’aurai plutôt tendance à penser que oui car nous nous sommes beaucoup basés sur des outils spécialisés (ici YourText.guru) pour optimiser les contenus et donc faire figurer les occurrences attendues par le moteur, d’après l’outil encore une fois. Même si cela n’indique pas le ton à utiliser, les occurrences donnent quand même une orientation spécifique au texte, qui est censée respecter l’intention de recherche.
Toutefois, les faibles CTR demandent de creuser plus loin et nous allons probablement mettre en place des tests dans les semaines à venir à ce niveau.
L’ergonomie et l’UX du site correspondent-elles réellement avec le contenu et les internautes cibles ?
Je pense que c’est surtout ici que le bât blesse. Je ne peux malheureusement pas trop développer cette partie par soucis de confidentialité mais certaines bases d’ergonomie ne sont ici pas respectées, notamment au niveau mobile ou encore au niveau de la gestion de la ligne de flottaison.
A souligner également une approche commerciale peut-être trop agressive qui peut s’avérer contreproductive.
L’optimisation continue de l’UX avec notamment la mise en place d’A/B tests auraient ici pu beaucoup apporter au SEO du site.
La stratégie SEO développée jusqu’à présent et les optimisations recommandées sont-elles réellement efficaces ?
Je ne sais pas vous, mais je me pose cette question très régulièrement et encore plus face à ce type de cas. C’est en tout cas évidemment 100% légitime comme question : la baisse des performance est peut-être due à de mauvaises recommandations et à de mauvais choix stratégiques.
Difficile d’avoir une réponse définitive et 100% sûre, mais ayant la chance de travailler en agence, j’ai pu échanger avec différents consultants expérimentés à ce niveau qui m’ont conforté dans les choix effectués jusqu’à aujourd’hui.
Cette question reviendra quoi qu’il en soit encore plus sur la table si l’analyse des performances et de leur cause s’avère erronée.
C’est dans tous les cas, la première fois que je suis directement confronté à ce type de problématiques sur un projet SEO et quand bien même j’ai (et vous avez probablement) pu lire des dizaines de fois que le métier de SEO évolue et touche bien plus d’aspects qu’autrefois, ce site constitue pour moi un reality check particulièrement intéressant et bienvenu.
Si je n’oublie pas le blog d’ici là, je m’assurerai d’éditer cet article avec les actions mises en œuvre et les évolutions constatées (ou pas) d’ici 2 à 3 mois. Je vous préviendrai via Twitter, si cela vous intéresse.
De votre côté, avez-vous déjà été confronté à ce type de problématiques ? Si oui, avez-vous pu constater des évolutions positives suite à certaines actions que vous avez pu mettre en place ?
Vous apprécierez peut-être également:
- Où s’arrête le SEO ?
- SEO : La faisabilité d’un mot clé
- Un contenu optimisé SEO c’est quoi ?
- SEO : Optimiser son contenu en 2015 (Silo, Knowledge Graph et TF-IDF)
- Peut-on réellement copier le SEO d’un site qui performe ?