Google

Indexation: Google découvre les pages à travers les flux RSS et Atom

nov 03 2009 Published by Franck NLEMBA under Crawl

Le plus important pour le référencement naturel est de s'assurer que toutes les pages du site sont bien indexées. Les méthodes d'indexation et de crawl ont beaucoup évoluées (voir article sur le real time search.) On se souvient qu'avant pour être présent Google avait besoin que le webmaster du site déclare son site sur une plate forme dédiée http://www.google.com/addurl/.

Quelques années plus tard on s'est aperçut que le fait de déclarer l'url ne suffisait pas car les robots préfèrent découvrir les pages à travers les liens entrants qui pointent vers ces dernières et par conséquent il était préférable pour s'assurer que votre site sera rapidement pris en compte d'obtenir un lien entrant depuis un site qui est déjà crawlé par le google_bot...ou de publier un XML sitemap,...

Dans un communiqué Officiel du google webmaster central blog, Google déclare qu'utiliser les flux RSS permet aux robots d'être informé assez rapidement des nouveaux contenus et surtout des contenus frais.

J'analyse cette information sous plusieurs angles. Je pense d'abord que le contenu "frais" et "actualisé" prend de plus en plus une place considérable dans l'algorithme Google. Nous en avons déjà parlé sur ce blog. En effet avant il suffisait d'avoir pleins de liens entrants vers une page pour qu'elle soit sur les premiers résultats. Aujourd'hui la complexité de l'algorithme fait que sur certaines requêtes la "fraîcheur du contenu" dépasse le nombre et la qualité des liens.

C'est aussi la preuve que l'indexation des flux RSS et Atom est arrivé à maturité chez Google; car on se souvient du communiqué Officiel de Google sur l'indexation des flux RSS des blogs où les équipes Google précisaient que l'algorithme allait désormais indexait le contenu de la page dont le robot découvrait l'Url.

Bien que l'article Google ne soit pas très complet car on ne sait pas si google va se contenter de crawler l'url de la page pour aller indexer son contenu plus tard ou si le crawl et l'indexation de la page se front au moment du crawl du flux?!

Qu'à cela ne tienne je vous conseillerai si vous souhaitez publier des flux rss sur votre site et surtout si vous souhaitez faciliter l'indexation de vos pages il faut faire des flux RSS complets et non partiels. Cela aiderait sûrement à avoir plus de visibilité sur les moteurs de recherche

No responses yet

Google teste la nouvelle version de google search

août 11 2009 Published by Franck NLEMBA under Moteur de recherche

Hier On a commencé à voir appraitre les premiers développements sur la nouvelle version de la page de résultat de google.

Tenez vous tranquile il ne s'agit pas simplement d'une petite modification de la présentation des résultats car l'objectif de Google est simple: Améliorer la vitesse de crawl et d 'indexation des pages, la précision, la taille de l'index et l'exhaustivité des résultats. Le communiqué officiel de google mentionne ce qui suit:

“For the last several months, a large team of Googlers has been working on a secret project: a next-generation architecture for Google’s web search. It’s the first step in a process that will let us push the envelope on size, indexing speed, accuracy, comprehensiveness and other dimensions. The new infrastructure sits “under the hood” of Google’s search engine, which means that most users won’t notice a difference in search results. But web developers and power searchers might notice a few differences, so we’re opening up a web developer preview to collect feedback.”

Donc je viens de faire un test sur la requête "ipod"

Image 1 : version actuelle de google search

Image 2 : nouvelle version google search (en test actuellement)

Je ne ferai aucune conclusion pour l'instant mais j'observe néanmoins que les contenus les plus actualisés sont plus que jamais priorisées.

Vous pouvez faire des tests à cette adresse: http://www.google.com/webhp?hl=en

Artciles associés:

La fréquence de crawl de google

google enrichie els résultats de nouvelles fonctionnalités

Test de google

No responses yet

referencement de site web et design: cas de zappos

août 07 2009 Published by Franck NLEMBA under Référencement site internet

La semaine dernière j'ai parlé du site américain de vente en ligne www.zappos.com comme étant une référence marketing car en quelques années le site a réussi à faire du SAV un canal de comunication.

Ce soir je vais aborder un tout autre aspect qui concerne cette fois ci le design et le référencement. En général dans les quelques entreprises dans lesqueles j'ai travaillé à Paris, les référenceurs ne s'entendent pas toujours avec les DA (graphiste, infographistes,...) soi disant que les uns travaillent sur la prise en compte rapide des pages à l'intérieur des index des moteurs de recherche (référenceurs) et les autres sont animés par un désir d'esthétique qui encombre à certains égards l'esthétique de site web.

Toujours est-il que les 02 catégories de professionnels cherchent à satisfaire le client et donc finallement "prêchent dans la même chapelle". A mon avis, les sites américains ont fondamentalement une autre définition de la notion d'ergonomie.

N'étant pas pro des questions ergonomique je ne vais pas me risquer à analyser les différences fondamentales des écoles occidentales et américaines. Par contre je vais me servir de zappos pour poser mes arguments:

La page d'accueil d'un site web peut satisfaire tout le monde

sur la page d'accueil d'un site web plusieurs publics y cherchent des informations. Or dans son livre don't make me think Steve Krug pointe bien les différences entre les différents types d'internautes. Il en ressort 2 types:

  • Ceux qui vont se débrouiller à trouver la bonne information sans aide: il s'agit des internautes qui vont essayer de comprendre la structure du site web et trouveront à force de chercher la réponse à leur besoin
  • Ceux qui ne veulent pas chercher et donc qui vont directement utiliser la recherche interne du site.
Page d'accueil zappos

Page d

Sur Zappos on observe que les équipes techniques et marketing ont fait le choix de positionner très haut toutes les catégories mais aussi la barre de recherche. Importance pour le référencement naturel c'est que google aura accès très vite au contenu les plus importants - Avantage pour l'utilisateur très vite il comprend de quoi parle le site.

Le footer peut également servir à la navigation

Beaucoup de webmasters continuent d'utiliser le footer comme outil de SPAM en y intégrant des "fermes de liens". Or sur zappos par exemple le footer sert certes à renforcer la densité sémantique des pages mais aussi à rafraichir le spages par un mécanisme de Cross-selling

footer zappos

Footer zappos

  • Avantages SEO: la page reste fraiche et sémantiquement riche
  • Avantage Utilisateur: informations sur les produits "star"

La fiche produit doit répondre au désir du visiteur

On le sait tous, il est très difficile à travers une requête générique de bien comprendre le desir de l'internaute. En effet une personne qui entre la requête lingerie sur google ou encore lingerie femme, communique à la limite son besoin mais pas son désir qui est plus précis (par exemple "boutique lingerie femme paris").

Or pour des besoins de conversions il est indispensable de bien comprendre le désir de l'internaute qui s'exprime en général grâce à la longue traine. La fiche produit est donc dans un site E-commerce la page qui doit répondre au désir de l'utilisateur. Une fiche produit bien conçue reprend effectivement toutes les informations relatives à la vente mais aussi à la transaction.

Mais les sites américains contrairement à leur homologue français encouragent quasi systématiquement les internautes à s'exprimer car ils ont compris que c'est "les commentaires" des visiteurs constituent une "richesse" dans la progression de la connaissance de leur désir et facilite la fidélisation. Sur ce dernier aspect je cite une fois de plus Zappos.com en exemple et l'image ci-dessous à mon avis est suggestive.

fiche-produit zappos

Fiche-produit zappos

No responses yet

Comment évaluer la saisonnalité d'une requête?

juil 13 2009 Published by Franck NLEMBA under Sémantique et mots clés

Comment savoir si une requête est rentable ou non? comment identifier dans sa niche ou son secteur d'activité les mots clés qui sont recherchés tout le temps et qui par leur nature sont stratégiques.

Cette question que j'aborde très souvent dans mes ateliers sémantiques à l'agence Baobaz à paris, est très importante pour les annonceurs et autres webmasters de site E-comemrce dans la mesure où les mots clés comme les internautes qui s'en servent ont un cycle de vie qui n'est pas toujours régulier.

Une fois de plus je ne vais pas fournir de recettes secrètes mais partager avec vous quelques outils qui permettent d'avoir une peite idée de ce qui buzz en ce moment.

Les outils de référencement naturel de google aident en effet à avoir une idée de la saisonnalité d'une requête. Je recommande de leur faire confiance à cause de la taille de l'index google qui grâce à l'importance des données qu'il collecte mais en lumière certains comportements.

Alors prenons l'exemple de 2 requêtes génériques saisonnières : "solde" et "voyage".

Je vais essayer de voir sur google trends laquelle de ces 2 requêtes est la plus utilisée sur google en france:

On s'aperçoit que "voyage" est plus recherché que "solde" évidemment j'ai envie de dire. De ce point de vue hors mis ce constat sommaire je ne peux donner de conseils à l'utilisation de cette requête vue que j'ai pas sufisamment de recul. Pour avoir un ordre d'idée je vais sortir du schéma de la comparaison pour celui de l'analyse d'une seule requête.

En effet pour chaque requête générique renferme plusiseurs autres requêtes dites de "longue traine" dont elle est la racine.

Il est donc indispensable de prendre le temps d'analyser les requêtes génériques de manières plus fines parce qu'elles trahissent souvent les intentions des internautes et ce sont ces indications sur la volonté ou non d'acheter qui constituent le vrai bénéfice de cette analyse sur le smots clés. Donc je vais pas changer d'outil je reste dur google trends et je vais essayer d'affiner ma recherche en précisant le lieu (france) et surtout la période que je vais réduire à un an.

Prenons donc comme année test 2007 sur la requête solde

puis en 2008

On remarque que les internautes l'utilisent en général pendant les grosses périodes de solde d'une part mais aussi qu'entre 2007 et 2008 il y'a une diminution du volume de recherche.

Faisons la même chose avec la requête générique voyage

En 2007

En 2008

On remarque très sommairement que d'une année à l'autre la période estivale est uine période où les internautes utilisent cette requête. Contrairement à la requête "solde" la requête "voyage a une saisonnalité plutôt régulière et surtout qu'entre 2007 et 2008 le désir d'évasion (de voyager) est resté quasiment au même niveau dans l'esprit des internautes français.

Ce rapide petit exercice permet de se rendre compte qu'il n'est pas facile de dégager une tendance sur la saisonnalité de recherche d'un mot clé. Car malgré ces estimations sur la volumétrie nous n'avons pas d'indications sur le trafic réele que peut apporter cette requête en naturel, le potentiel de conversion de cette dernière, l'intention des internautes qui l'utilisent...

Il faut donc croiser des données provenant de différentes sources et mêmes pourquoi pas faire un test (campagne SEM) pour avoir des données plus fines.

Dans cette ordre d'idée, google insights for search est un outil plus fin. Je vous conseille de l'utiliser car il propose pas mal de mots clés en rapport avec la requête étudiée.

Toutefois en france comme USA d'ailleurs les consultants testent encore le potentiel de Twitter qui semble vraiement apporter un plus dans la recherche aujourd'hui. Ainsi pour savoir ce qui buzz le mieux sur twitter ou encore qui en parle twitter search est un bon outil:

Exemple: QUI PARLE DU référencement naturel aujourd'hui?

La réponse sur twitter search

et si je fais la même requête pour voir de manière graphique comment on parle du référencement naturel sur Twitter ou les soldes tout simplement Twist est ma solution:

Twist sur le référencement naturel

Twist sur "solde"

twist sur les soldes

twist sur les soldes

No responses yet

Robots.txt: Utilisation du robots.txt pour plusieurs domaines

fév 26 2009 Published by Franck NLEMBA under Crawl

Comme je l'ai déja dit sur SEO business le fichier robots.TXT est un petit doc texte qui permet de donner des recommandations à google et aux autres robots yahoo slurp et MSNBot particulièrement sur les pages du site à suivre et à les contenus à ne pas indexer.

Cette semaine pour un de mes clients j'ai été obligé de résoudre une problématique plus complexe. Une des versions du site (version test) a été indexé par google ce qui me pose un sérieux problème de duplication du contenu (duplicate content).

Face à cette situation en général 2 opportunités se pose en fait on a plusieurs solutions.

Lorsque l'on est dans le même domaine par par exemple www.monsite.com on peut soit faire des redirection 301 des pages d'erreurs vers les bonnes pages, soit bloquer dans le fichier robots.txt certaines url

Par exemple bloquer toutes les urls qui ont un (?)

[www.exemple.com/advanced_search_result.php?keywords=seo

User-agent: *
Disallow: /*?

Soit encore faire une demande de désindexation dans le webmaster tool.

Mais cette fois ci le problème est différent plus que ce que je souhaitais désindexer 

c'est plutôt:

http://fr.monsite.com

L'objectif est donc de bloquer toutes les Urls qui commencent par (fr)

La solution qui me semble la plus appropriée consiste simplement à Créer 2 fichiers robots.txt 

un pour chaque site.

Pour http://fr.monsite.com

je crée un fichier robots.txt avec deux lignes de codes qui interdissent l'indexation de toutes les pages du site

User-agent: *

Disallow: /

Un mois plus tard si le problème persiste je fais une demande de désindexation du domaine sur le webmaster tool.

La question que je me pose aujourd'hui est l'introduction ou pas de la balise 

<META NAME="ROBOTS" CONTENT="NOARCHIVE">

Afin d'empêcher à tous les robots de conserver des copies des pages?
  

No responses yet