Il y a des termes qui sont réellement impossible à cibler tant la concurrence est importante. Impossible ? Pas si sur que ca. C’était sans aucun doute vrai il y a quelques mois mais les changements récents de l’algorithme de Google ont laissé apparaître un petit espoir.
Il semblerait en effet qu’il existe un moyen de contourner le schéma classique made in Google, à savoir travailler la popularité d’une page et attendre 3 mois qu’elle se positionne.
Voyons ensemble comment réquisitionner la première place sur des requêtes ultra concurrentielles, souvent temporairement certes mais pas toujours, ainsi que les effets que cela peut avoir.
C’est une nouvelle fois un article inspiré par une de mes lectures. Publié sur l’excellent blog de Ian Lurie, l’article original est intitulé « Agile SEO using Query Deserves Freshness (QDF) ».
Bon le titre anglais fait un peu peur mais c’est extrêmement intéressant : l’idée qu’il met en avant dans l’article, c’est que l’algorithme actuel de Google favorise énormément le contenu récent par rapport au contenu publié quelques mois, voire années auparavant.
Il le favorise tellement que certains exemples sont bluffants. Il donne deux exemples (j’en rajouterai un 3ème d’une expérience personnelle également) :
- Le premier concerne les requêtes « Tiger Woods Masters » et « Tiger Woods Celebration »
Les deux requêtes sont évidemment très recherchées et des sites se positionnent dessus depuis des années. Ian a publié un article sur un de ses blogs sur le sujet. Blog qui à première vue n’a rien pour inquiéter les gros sites autoritaires qui ont consolidé leur positionnement depuis des années (PageRank 3 et une petite poignée de backlinks. Le nom de domaine toutefois date de 1997).
Ainsi, 3 jours après la mise en ligne de l’article, le voici qui pointe en première page sur les deux requêtes.
- Deuxième exemple avec la requête « World Cup iPhone Apps »
Inutile de préciser le nombre démentiel de recherches que cela a du généré au cours des derniers mois.
A première vue là encore, il est impossible de se positionner sur des requêtes type « iPhone Apps » et encore plus en première position puisque l’App Store ressort constamment 1er, ce qui est normal à la vue des milliers de backlinks que possède le site, ainsi que sa grande autorité.
Toutefois, Appolicious, un site sur les applications iPhone a une section spécialisée dans la critique d’applications.
Et juste au moment où cette fameuse requête devenait populaire au vue de l’arrivée de l’événement, ils ont publié une critique sur les applications iPhone liées à la coupe du monde.
Et là, en moins de 3 jours, le site se positionne 1er, devant l’App Store sur cette requête recherchée des milliers de fois quotidiennement.
- Troisième exemple, la requête « prédictions 2010 »
Pour fêter l’arrivée de la nouvelle année, j’avais publié début janvier un article intitulé « 12 prédictions pour 2010 ». Etonnamment, quelques jours à peine après la publication de l’article, je constatais de nombreuses visites via Google liées à des termes de voyance et notamment « prédictions 2010 ».
Alors certes on se ne situe pas à la même échelle que les exemples précédents mais ça illustre également bien le sujet.
- Un point commun : la fraîcheur du contenu
Tous ces exemples ont un point commun : dans tous les cas, des sites se positionnent depuis de nombreuses années le plus souvent sur des requêtes compétitives. Ces sites ont un contenu plutôt statique à première vue et les termes sur lesquels ils se positionnent ont un nombre de recherche plutôt régulier.
Dans tous les cas, il s’avère que ces recherches explosent : c’est souvent du à un événement qui approche, la fameuse affaire Tiger Wood, la coupe du monde ou encore l’année 2010.
- Comment utiliser ce procédé ?
Il y a plusieurs éléments à garder en tête :
– Première chose, il faut évidemment se tenir au courant de l’actualité. Il faut trouver la requête susceptible d’exploser dans les semaines à venir. Pour cela, Twitter est un excellent outil.
– Il faut également être capable de mettre en ligne un contenu dans les heures qui suivent. Il ne s’agit pas d’optimiser une page et de travailler dessus durant une semaine : il faut être rapide et agile pour reprendre le terme de l’article original.
– Il faut évidemment optimiser le contenu : utilisez le mot clé dans le titre mais également au sein du contenu. Mettez en avant des synonymes et faîtes en sorte que le contenu soit pertinent pour la requête.
– Créez un maximum de liens internes : ca semble évident pour un blog, l’article obtient naturellement beaucoup de liens grâce à la homepage. Pour un site statique, mettez en place un maximum de liens internes vers les pages pertinentes.
– Plus l’article sera relayé, plus cela sera dans votre intérêt. Utilisez Twitter, faîtes appel à vos amis. Plus il y aura de liens, plus vite il sera indexé, bien qu’à priori cela ne soit pas un problème depuis la dernière mise à jour de Google.
– Une fois le positionnement acquis, continuez d’ajouter du contenu : soit directement au sein de la page, soit en créant de nouvelles pages sur le sujet et en les liant les unes aux autres. Ca permet de rester positionner plus longtemps et pourquoi pas de consolider le positionnement.
– Cette méthode est certes pertinente pour les termes courts et compétitifs mais peut très bien être appliquée aux termes longue-traine. Cela vous permettra d’acquérir un trafic ultra qualifié pour quelques heures de rédaction (par exemple Superbibi ressort 1er sur « budget Adwords » et « budget SEO »)
– Cette méthode fonctionne à priori uniquement pour les sites SEO friendly. Si à la base votre site n’est pas optimisé et ne reçoit aucun trafic de Google, cette technique ne fonctionnera pas.
Au final, cette méthode semble plus qu’évidente pour les blogs mais peut très bien être appliquée sur tous les sites qui ont un contenu dynamique.
On savait ainsi que le contenu dynamique était un critère pour Google. Voici une nouvelle donnée à garder en tête pour exploser son compteur de trafic, du moins occasionnellement.
Vous apprécierez peut-être également:
- Comment apparaitre dans Google définition
- SEO : La faisabilité d’un mot clé
- 70 vérités que vous ignorez sur Google et le SEO
- Maîtriser la première page de Google sur son nom
- Bien choisir les mots clés pour son référencement
Il ne faut clairement plus sous estimer la puissance de la fresh info pour obtenir du trafic sur son blog… C’est le point le plus important qui m’a semblé est soulevé dans ton article… Et franchement c’est une grande quantité de trafic ponctuel qu’on peut obtenir avec cette technique, même si c’est pas du long terme c’est très intérressant… attention tout de même si vous faite de l’adsense de cibler des niches qui cliquent bien. Par exemple, la téléréalité c’est des jeunes utilisateurs qui savent très bien ce qu’est une pub adsense, ce n’est donc pas intérressant si votre but est d’avoir des clics sur les pubs…
Article très intéressant ! L’exemple démontre bien le rôle de la fraicheur dans les résultats de Google et je trouve ça assez stimulant. On peut dire que les critères de classement « donne une chance » au petit en le propulsant en première page lorsqu’il est frais, même si sur le long terme la requête retombe derrière les majors du domaine. Ca peut encourager n’importe qui à se lancer dans l’aventure d’un blog 😉
hello, merci pour ce rappel mais en même temps c’est pas nouveau. Surtout avec l’arrivée de Caféine.
-> Content is King, Linking is Queen but updates are Emperors 😉
Je me demande dans quelle mesure cette puissance du « fresh » est néfaste pour le web…
et par extension la logique de blog qui, plus il est rafraichi, plus il a de chance d’être bien « vu » par Google…
Cela ne pousse t-il pas les blogs à publier pour publier, encore et encore ? recycler des info, présenter les mêmes idées sous différents angles « les 7 clés pour », « les 10 meilleures façons de », « comment faire … ? », rebondir sur l’actualité juste pour du keywording ?
Cela ne resulte t-il pas en une pollution du web créée par la logique d’indexation de Google ?
Qu’en pensez vous ?
Mikael a sans doute raison. Mais je pense que c’est inévitable. C’est le retour obligatoire à Google pour son mode de classement des sites dans les SERPs.
A noter, la fraicheur d’un contenu est surtout efficace si le site est déjà relativement trusté, sans cela, la patience reprend le dessus.
Je ne pense pas que cela soit si néfaste que ça. En fait c’est même plutôt logique.
Il faut juste imaginer que Google tient compte de la notion d’événément, c’est à dire, lorsqu’une requête est soudainement beaucoup plus recherchée qu’auparavant (cf les requêtes citées dans l’article), ca signifie que quelque chose a eu lieu vis à vis de cette requête.
Ainsi, les sites au contenu statique qui datent de quelques années ne sont peut-être plus aussi pertinents qu’autrefois comparé au nouveau contenu qualitatif sorti très récemment (la notion de qualité peut être subjective après, notamment jugé grâce au Trustrank comme le dit Sylvain).
Ca ne fonctionne à priori pas avec tous les mots clés, du moins pas pour se positionner si rapidement.
Au final, dans la théorie ca part d’un bon sentiment et je trouve ca plutôt juste.
Après quant au fait d’écrire et de réécrire sur les mêmes sujets, je ne pense pas que ca soit le cas ici: à priori si tu écris un article du type « Les 7 clés pour » ou « 10 facons pour », tu cibleras le même mot clé et tu ne gagneras pas 2 fois plus de trafic.
Alors la, article extrêmement intéressant, et les résultats sont assez bluffant. Le contenu finalement reprend ces droits, et la veille est de plus en plus importante pour l’obtention du scoop et du positionnement. Effectivement je pense que Twitter, et les services tiers sont de bons outils pour surveiller l’actu, et la médiatiser. L’exemple avec tiger woods est réellement bluffant !!
Si j’ai bien compris, pour profiter de cette aubaine, il faut surfer sur une vague évènementielle pour que Google soit tout émoustillé ?
Ce qui parait plus difficile sur les sites que sur les blogs et davantage encore selon la nature du site ?
Est-ce qu’on en connait la durabilité et qui de la pertinence et de l’ancienneté l’emporte ?
A part ça, le choix de la tomate en visuel est un consensus de saison ! (tomate cerise ?)
C’est en effet plus difficile sur les sites que sur les blogs mais c’est une raison supplémentaire pour mettre en place une section « dynamique » comme pour les critiques d’applications, comme cité dans l’exemple de l’article.
Concernant la durabilité, ce n’est en théorie dans la plupart des cas pas extrêmement intéressant, cf l’exemple de la coupe du monde. Après, pour consolider le positionnement, il faudrait réécrire sur le sujet et créer le plus de liens internes possibles avec une ancre optimisée.
Concernant la tomate et les saisons, je m’y perds un peu. C’est l’hiver après tout en Australie, où je suis actuellement 😉
Je confirme qu’ajouter à chaque un peu plus de contenu tous les 3 mois permet de remonter les positions.
Classique et connu, mais ça illustre vraiment tout un tas de possibilités vraiment puissante. A partir de là, il convient maintenant d’essayer d’aller plus loin pour pérenniser certaines positions.
Merci pour les exemples vraiment très frappants.
Commes tu le soulignes il faut avant tout un site bien seo friendly.
Le problème est qu’en général c’est du contenu frais qui ne reste pas frais indéfiniment et perd ainsi rapidement de son bon positionnement.
Merci des pour vos réponses @pureshore et @axe-net 🙂
Il n’est pas rare de voir de jeunes site grapiller pas mal de place en mettant leur contenu régulièrement a jour.
L’ancienté n’a plus autant de poid qu’avant.
Travailler de cette façon est épuisant. De plus, dès qu’on prend des vacances l’audience tombe assez vite.
Il faut arriver à estimer le gain pour voir si le temps passé est amorti.
Il est cependant vrai que l’algorythme de Google est et restera un vrai mystère.
Cette piste paraît intéressante, il faut voir si dans l’application les résultats sont au rdv.
La fraicheur du contenu c’est bien mais leur pérennité c’est mieux. Rien en sert à mon avis de viser à relayer absolument des buzz qui vont générer beaucoup de trafic pendant une période très courte. Visons long terme !
Effectivement, du nouveau contenu est très stimulant pour les visiteurs. Je pense cependant qu’il faut être vigilant à bien rester dans sa ligne éditoriale, tout en fournissant un contenu de qualité, et ne pas faire du contenu, histoire de grimper sur google…
Yvan,
Certes, le résultat est là. Mais il faut du temps, temps que je n’ai pas.
Je préfère me consacré sur mon « vrai contenu », c’est déjà assez chronophage, même si de temps en temps, j’en ai crée du spécial buzz 😉
On peut également pondérer le principe du contenu frais. Un nouveau contenu n’est pas forcément une actualité, un buzz, un évènement, ou tout sujet ou thème à durée de vie courte.
L’actualisation ou le dépoussiérage d’un article traitant d’un sujet ancestral, mais présenté avec de nouvelles informations, de nouveaux outils, bref actualisé devrait, et c’est logique, profiter d’une prime de fraîcheur dans les SERP.
Du point de vue utilisateur, je ne pense pas être le seul à râler lorsque je cherche une info précise, et que je tombe dans les premières recherches sur des infos qui traitent bien de mon sujet, mais qui sont obsolètes… Il est logique que Google veuille dépoussiérer certains de ses résultats.
Je pense qu’en premier, il faut déjà avoir un site installé depuis un certain temps (court certes… mais 2 à 3 mois) sur la toile pour bénéficier de cet effet.
J’essaye d’actualiser le contenu de mon site autant que le temps me le permet mais c’est compliqué. Après deux semaines d’existence, je n’ai qu’un trafic très limité en provenance de Google, je suis en premier page sur le nom du site (heureusement lol), mais je ne suis dans les 10 premières pages sur aucune des requêtes qui m’intéressent.
J’ai pourtant réalisé un thème WP que je pense plutôt SEO Friendly, j’ai placé mon site sur des annuaires, j’essaye d’être actif sur le web sans pour autant « poster du commentaire pour poster du commentaire ».
J’ai l’impression que je suis victime de la sandbox… lol. Et d’un PR0. Quand je pense qu’un vieux site perso que j’avais fait sans contenu et seulement avec mon CV est PR3. Je crise.
Merci pour cet article en tous cas !!!
@Jb: en fait ca dépend, si c’est un article « one shot » dans ce cas le positionnement sera peut-être temporaire. Maintenant, si une fois que tu as acquis le positionnement, tu continues tes efforts sur le même sujet en développant un linking interne et externe optimisé, il y a sans doute possibilités de le maintenir plus ou moins.
@Arnaud: à priori, le temps passé n’est pas si important que ça, juste le temps de rédiger un bon contenu (environ 900 mots) de qualité. La difficulté consiste à trouver la requête qui pourra permettre cela.
@Seb: ca dépend, si tu as un site évenementiel, ca peut être intéressant. Par ailleurs, tu n’es pas obligé de tout miser sur cette technique mais peut l’utiliser occasionnellement.
@Gael: il s’agit ici de créer du vrai contenu!! Il ne faut clairement pas chercher à berner Google, il faut juste utiliser sa méthode de classement: si ton contenu n’est pas de qualité, il y a fort à parier que cela ne fonctionnera pas.
@Olivier: exactement! cela peut fonctionner pour tout et non pas que pour les buzz, il faut juste actualiser un contenu vieillissant sur la toile!
@Harold: je pense que pour bénéficier de cet effet il faut beaucoup plus d’ancienneté mais il faut avant tout que Google t’accorde une certaines confiance: ca passe par des liens de sites autoritaires ou par du contenu de qualité régulièrement mis en ligne.
A propos de ton site: 2 semaines c’est très jeune et c’est tout à fait normal d’avoir un trafic limité et aucun positionnement.
Par ailleurs, le PR 0 est également normal et il faudra attendre la prochaine Google Dance pour que ton PR soit mis à jour.
La raison la plus probable pour être sandboxé si vite, c’est d’avoir acquis un nombre démentiel de liens en un court laps de temps, ce qui n’est à priori pas le cas ici, donc pas d’inquiétude!
Juste un peu de patience;)
La google dance n’existe plus vraiment.
Le page rank est mis a jour en temps réel, seul l’affichage de la barre verte n’est fait qu’une fois par moi.
En résumé il est possible d’avoir un PR de 2 alors que la barre verte est de 0 😉
Si on peut obtenir une grande quantité de trafic avec cette technique c’est bluffant, mais cela demande une énorme quantité de travail..
A privilégier pour les grosses équipes, pour les webmasters solo, je reste convaincu que le contenu pérenne est la meilleures solution long-terme pour le seo.
Le Contenu frais c’est comme un fruit, c’est meilleur quand c’est frais.
Pour ce qui est de la google dance, de mon coté elle n’existe plus vraiment.
Félicitations pour le nouveau design du blog et pour l’article les bases du référencement.
Je suis tout a fait d’accord avec Référenceur SEO, Google aime la fraîcheur et le dynamisme de contenu.
Merci pour tes articles superbib. Je te félicite également pour le design simple et agréable.
La « prime de fraicheur » comme l’appel certain est bien sur importante. Elle nous permet souvent d’obtenir de bonne positions même si n’est que durant quelques heures ….
D’ailleurs on voit bien arriver dans les SERPs de plus de résultats de recherche twitters sur les « trends » chaud du services. Preuve que Google veut de la fraicheur !
C’est bon à savoir merci beaucoup ! On va essayer de mettre ça en pratique 🙂
Je suis d’accord, c’est une question de prîme de fraicheur qu’on accordait souvent à un site en général (qui se positionnait bien quelques mois après sa création pour avoir sa chance de réussir). C’est vrai que là cela semble se rapporter à des pages précises.
@Jb: en fait ca dépend, si c’est un article « one shot » dans ce cas le positionnement sera peut-être temporaire. Maintenant, si une fois que tu as acquis le positionnement, tu continues tes efforts sur le même sujet en développant un linking interne et externe optimisé, il y a sans doute possibilités de le maintenir plus ou moins.
@Arnaud: à priori, le temps passé n’est pas si important que ça, juste le temps de rédiger un bon contenu (environ 900 mots) de qualité. La difficulté consiste à trouver la requête qui pourra permettre cela.
@Seb: ca dépend, si tu as un site évenementiel, ca peut être intéressant. Par ailleurs, tu n’es pas obligé de tout miser sur cette technique mais peut l’utiliser occasionnellement.
Super article voilà pourquoi les blogs sont souvent en tête d’affiche sur Google, car contenu mis à jour régulièrement …
Nous allons essayer.. merci pour cette trouvaille
Une question me taraude :
Qu’en est il si le contenu « général » du site est totalement différent du contenu « frais » mis en ligne pour ce genre de requête ?
Est ce que Google ne risque pas de « blacklister » le site ? ou du moins le mettre dans le « bac à sable » ?
C’est vrai que les blogs sont avantagés, généralement, grâce à la fraîcheur de leur contenu mais ce n’est pas toujours le cas. Sur certains blogs, les posts remontent à 2009, voire plus, je les ai vus et ça me désole parceque j’estime que c’est aussi, quelque part, un manquement envers ses lecteurs. Bref, c’est bien que Google favorise le contenu frais, c’est motivant, surtout sur des thèmes monopolisés par des sites défiant toute concurrence. A retenir et à utiliser au bon moment, à bon escient!
Pour les blogs cela reste assez facile, mais pour les sites statiques cela va être difficile.
Avec un blog on peut facilement redonné du jus en utilisant des diggs-likes, si le contenu n’est pas un contenu d’actualité « périssable » il pourra toujours être cité, c’est un élément à ne pas négliger.
Bonjour,
A la lecture du titre de l’article, je voyais ça comme une évidence, que ça a de la puissance, mais honnêtement j’étais loin de penser que ça aura autant de « puissance », je ne cesse d’apprendre à travers ce blog, merci Superbibi !
Donc on en reviens a la base : le contenu est roi !
Enfin une excellente nouvelle ! C’était déprimant de voir qu’il était quasi impossible d’aller taquiner les grosses structures déjà implanté depuis 10ans sur des requetes ciblées.
Je trouve que c’est une très bonne chose de voir que Google prendre enfin en compte la fraîcheur du contenu face à la grosse artillerie du poids des années. Ca permet d’offrir une bonne visibilité à des site ou des blogs qui montent et pourquoi pas, grâce à ce pied à l’étriller, consolider cette nouvelle notoriété par de la conversion de visiteur occasionnel en une communauté assidue.
Je me bas pour éviter l’utilisation des logiciels de content spinning qui sont effectivement intéressants d’un point de vue SEO, pour feindre le duplicate content. En revanche la reformulation sous x variantes n’apporte rien à l’internaute, qui est je trouve, plus intéressant et important que Google himself (non ne pas me châtier s’il vous plait) ^^