Google

Conseils gratuit en référencement naturel

fév 01 2011 Published by Franck NLEMBA under Actualités google

En général je ne commente pas les articles du blog de Google consacré à aider les webmasters mais compte tenu de l'actualité SEO récente et des changements d'orientation à la tête de Google je considère qu'il est très important de revenir sur les bases du référencement naturel.

La domination de Google

Comme vous devez tous le savoir Google domine la recherche dans la majorité des pays (aux USA notamment comme l'indique l'image ci-dessous) au monde à l'exception de quelques uns.

part de marché des moteurs de recherche

Ainsi la première démarche stratégique est d'optimiser son site internet en respectant les principes simples du référencement naturel tels qu'ils sont indiqués par les experts de Google. Afin de vous aider à mieux comprendre ces principes je vous recommande de lire le guide proposé par Google que vous pourrez trouver ici

Conseil 1: Contribuer à la lutte contre le SPAM

Depuis plusieurs semaines on assiste à un très gros buzz sur le SPAM. Si vous êtes comme moi frustré de voir des sites très mal optimisés occuper les meilleurs positions je vous propose de lire cet article proposé par Google afin d'aider les équipes qualité à améliorer les résultats.

En effet c'est très frustrant de rechercher des informations dans l'urgence et de tomber sur des pages dont le contenu est soit pas actualisé, soit pas en rapport avec notre recherche! je vous encourage donc à déclarer des sites qui font du SPAM.

Conseil 2: Gérer les ressources offertes aux webmasters

Google propose de nombreux outils et le google webmasters tools en est un. Il vous permettra par exemple de:

  1. Suivre à quelle fréquence Google passe sur votre site
  2. De connaitre sur quels mots clés vos pages se positionnent
  3. De connaitre toutes les erreurs relevées par Google et de les corriger en conséquence
  4. Corriger les doublons
  5. Optimiser le contenu des pages (Meta et title...) qui vous apportent le plus de visites et celles qui vous apportent le moins
  6. De crawler vos pages comme le ferait Google...

Pour bénéficier de toutes ces infos, consulter cette vidéo très didactique


No responses yet

La gestion des sitemaps et l'indexation des pages

jan 24 2011 Published by Franck NLEMBA under Crawl,Google image

Matt Cutts a donné le ton sur cette année 2011 et j'ai juste envie de dire qu'il était temps car les résultats sur Google du point de vue leur qualité sont très Optimisables.

De nombreux sites en France occupent de très bonnes positions sur Google France par exemple, et la qualité du contenu proposé est très médiocre. "Ce sont toujours les mêmes qui occupent les premières positions" sur la mode et le prêt à porter, les requêtes liés à l'enfant, le high tech...les petits sites ont de moins en moins de chance de se positionner sur la première page faute de moyen et parfois avec une qualité de contenu meilleure...on pourrait dire pleins de choses sur la qualité des résultats Google mais je vous laisse lire l'article de Matt Cutts

Revenons sur le sujet : l'Optimisation des sitemaps. Première précision les sitemaps dont je parle ici sont bien les XML sitemaps donc le rôle est d'aider Google à découvrir l'ensemble des contenus de vos pages. Les détails sur leur création se trouvent dans le sitemap protocol et leur monitoring se fait à partir du Google webmasters Tool.

types de sitemap dans le google webmasters tool

Le sitemap n'influence pas les positions

Si vous êtes expert du référencement naturel évidemment la question de l'utilité des sitemaps ne se pose pas (par exemple pour un site de moins de 50 pages un sitemap XML à mon avis ne sert pas à grand chose dans la mesure où le contenu est statique) à moins que vous ne les utilisiez pas pour une raison pour une autre.

L'une des erreurs que les clients font souvent c'est de considérer que le sitemap sert à améliorer les positions. La réponse est évidement non car ce qu'il faut comprendre c'est qu'avant d'être positionné sur Google votre site doit être accessible en d'autres termes les robots Google doivent pouvoir explorer l'ensemble des pages du site.

Evidemment si le site a entre 10 et 50 pages de contenu utile à l'internaute il y'a des chances que Google l'explore totalement. Vous pouvez par exemple vous en assurer avec la commande [site:www.monsite.com].

Le fait d'avoir un sitemap ou pas n'a donc aucune influence sur vos positions. Par contre si toutes les pages du site sont indexées ceci peut aider les pages du site à vous apporter plus de visites sur différents types de requêtes.

A quoi sert le taux d'indexation des sitemaps

Ce critère est très important pour deux raisons:

  • Ils vous donnent la proportion de pages de votre site qui sont dans l'index principal de Google
  • Ils vous donne une idée de la qualité de vos pages car si Google les indexe totalement ceci revient à dire que votre contenu remplit certains critères de qualité

On considère en général qu'un bon taux d'indexation se situe à 40%. Si vous avez un taux d'indexation inférieur à 40% il faut essayer d'identifier les pages qui font moins de visites chaque mois et celles qui reçoivent moins de liens la réponse est peut être là!

Comment organiser mes sitemaps?

Rob de Distilled a récemment publié un excellent article sur la gestion des xml sitemaps. La majorité des techniques qui y sont expliquées peuvent être appliquées à un moment ou à un autre selon le type de site. Ce qu'il faut retenir c'est que le fait d'éclater vos urls dans différents fichiers selon leurs types facilitera l'analyse.

sitemaps

Pour Finir Google continue d'améliorer la manière dont il découvre les contenus sur Internet, il est donc important lorsque l'on a des vidéos sur un site de penser à faire un sitemap pour héberger les urls de ces vidéos ou encore un sitemap pour les images du site

No responses yet

Indexation: Google découvre les pages à travers les flux RSS et Atom

nov 03 2009 Published by Franck NLEMBA under Crawl

Le plus important pour le référencement naturel est de s'assurer que toutes les pages du site sont bien indexées. Les méthodes d'indexation et de crawl ont beaucoup évoluées (voir article sur le real time search.) On se souvient qu'avant pour être présent Google avait besoin que le webmaster du site déclare son site sur une plate forme dédiée http://www.google.com/addurl/.

Quelques années plus tard on s'est aperçut que le fait de déclarer l'url ne suffisait pas car les robots préfèrent découvrir les pages à travers les liens entrants qui pointent vers ces dernières et par conséquent il était préférable pour s'assurer que votre site sera rapidement pris en compte d'obtenir un lien entrant depuis un site qui est déjà crawlé par le google_bot...ou de publier un XML sitemap,...

Dans un communiqué Officiel du google webmaster central blog, Google déclare qu'utiliser les flux RSS permet aux robots d'être informé assez rapidement des nouveaux contenus et surtout des contenus frais.

J'analyse cette information sous plusieurs angles. Je pense d'abord que le contenu "frais" et "actualisé" prend de plus en plus une place considérable dans l'algorithme Google. Nous en avons déjà parlé sur ce blog. En effet avant il suffisait d'avoir pleins de liens entrants vers une page pour qu'elle soit sur les premiers résultats. Aujourd'hui la complexité de l'algorithme fait que sur certaines requêtes la "fraîcheur du contenu" dépasse le nombre et la qualité des liens.

C'est aussi la preuve que l'indexation des flux RSS et Atom est arrivé à maturité chez Google; car on se souvient du communiqué Officiel de Google sur l'indexation des flux RSS des blogs où les équipes Google précisaient que l'algorithme allait désormais indexait le contenu de la page dont le robot découvrait l'Url.

Bien que l'article Google ne soit pas très complet car on ne sait pas si google va se contenter de crawler l'url de la page pour aller indexer son contenu plus tard ou si le crawl et l'indexation de la page se front au moment du crawl du flux?!

Qu'à cela ne tienne je vous conseillerai si vous souhaitez publier des flux rss sur votre site et surtout si vous souhaitez faciliter l'indexation de vos pages il faut faire des flux RSS complets et non partiels. Cela aiderait sûrement à avoir plus de visibilité sur les moteurs de recherche

No responses yet

Google trends sur la pandemie a venir

sept 08 2009 Published by Franck NLEMBA under Sémantique et mots clés

Ce matin lors de nos formations au sein de l'agence Baobaz j'ai argumenté mon propos au sujet de la complexité d'être sur la première page de Google et d'y rester, en m'appuyant sur le dynamisme du comportement du consommateur.

Les arguments sont très simples et le message est bien clair c'est à dire que nous n'avons pas la même façon d'exprimer nos besoins sur les moteurs de recherche. Une personne qui cherche des informations sur la grippe A ne va pas forcément rédiger sa requête comme la majorité des autres internautes...

Donc l'idée principale c'est de ce dire que Google collecte des données sur notre comportement sur les moteurs de recherche (données qui lui permettent par la suite de rester pertinent) et pour le mesurer je vous propose simplement d'observer la progression des recherches sur la grippe annoncée pour cet automne.

En France les requêtes sur la "grippe", "H1N1" et "grippe a " progressent toutes de manière graduelle à mesure que l'on se rapproche de l'automne. Bien que l'on ne le voit pas sur l'image ci-dessus le mot clé le plus utilisé parmi les 03 citées est "grippe".

Cette observation m'amène à penser que logiquement le robot crawler va chercher toutes les sites qui donnent une information sur la grippe et particulièrement le sites les plus actualisés afin de répondre efficacement au besoin des internautes.

De ce point de vue mon observation s'apparente juste à un constat. Ce qui serait intéressant sémantiquement parlant et de manière stratégique, c'est de voir les requêtes qui sont les plus utilisées et celles qui voient le trafic progressé.

On s'aperçoit que les mots clés les plus recherchés sur cette thématique peuvent être classés dans 02 groupes: les mots clés relatifs au vaccin (groupe 1) et les mots clés relatifs aux symptômes (groupe 2).

Ainsi si vous êtes un site d'information sanitaire ou un site E-commerce et que vous souhaitez proposé des produits pour se protéger de la grippe A il faut commencer par donner des informations sur les symptômes et les vaccins. Google augmentera à l'occasion sa fréquence de crawl si en plus votre site est actualisé régulièrement.

No responses yet

Réseaux sociaux:the golden notebook online

juil 11 2009 Published by Franck NLEMBA under Réseaux sociaux

Cette semaine j'ai abordé la question du developpement de la marque en ligne. Cette notion me semble interessante dans la mesure où il est difficile pour le référencement naturel d'aider les sites à développer une stratégie sur la marque.

Le moyen le plus efficace dont nous disposons aujourd'hui est de maximiser l'impact du logo sur tout le site, mais aussi de bien travailler les meta <title> comme l'illustre les écrans suivants tirés du site the golden notebook online de Doris Lessing:

Attention sur ce logo les webmasters ont bien fait d'appliquer une hiérarchisation de titre de niveau 1 pour signaler au moteur le poids du contenu de cette image:

<h1>

<a href="http://thegoldennotebook.org/">Doris Lessing’s The Golden Notebook</a>
</h1>

Sur Google les meta title permettent aussi de marquer le poids de la marque

Cependant même si on arrive à bien indiquer à l'internaute le nom du site et son logo, le plus important est de le faire revenir en lui donnant une bonne impression une fois qu'il sera sur le site. Prenons l'exemple du réseau The Golden Notebook Online. On remarque que la couleur de fond est volontairement épuré comme pour montrer à la cible (amateurs de littérature et amoureux du livre) qu'il étaient bien entrain de parcourir les pages d'un livre.

Un coup d'oeil sur le header permet de comprendre de quoi parle le site et ce que l'on va trouver à l'intérieur: Book, blog, Forum (petite précision sur le navigateur les webmasters ont eu l'intelligence de rajouter l'image d'un livre ouvert afin de marquer l'identité du site)

Quand on observe le code source de plus près on remarque bien que le title est très simple:

<title>Doris Lessing’s The Golden Notebook </title>

Par contre l'auteur de ce blog communautaire insiste sur son nom à elle "Doris Lessing" avant le nom du réseau. Mais pourquoi?

Un petit tour vers wikipedia et on a la réponse. En effet en soulignant dans le titre du blog qu'il s'agit bien des du site de Doris Lessing les webmasters s'appuient sur la notoriété du prix nobel de la littérature 2007, cette femme de 90 ans auteurs de plusieurs livres à succès.

Évidemment le fait d'appuyer la notoriété d'un site sur celle de son auteur est réservé en général au milieu culturel (cinéma, art, théâtre...), sportif et peut être politique dans la mesure où les égéries ont souvent une très grande présence médiatique. Alors comment faire lorsqu'un site marchand rencontre des problèmes de notoriété et de branding?

A mon avis il n' y a pas à proprement parlé de recette miracle si ce n'est d'aller rencontrer votre cible là où elle se trouve.

Par exemple si l'on s'adresse aux femmes des sites comme aufeminin.com, ou encore doctissimo.fr peuvent servir de canal pour véhiculer son image. Un mini widget ou encore un badge sur les discussions en rapport avec votre catalogue feront donc l'affaire.

Par ailleurs comme on l'a vu sur ce site collaboratif sur le livre, le fait d'avoir un bon logo clair et visible sur tout le site peut aussi aider à la rétention du nom de la marque.

Enfin une bonne règle d'écriture des meta Title et des meta description contribue forcément à renforcer le branding.

Revenons un instant sur http://thegoldennotebook.org/ particulièrement sur la page d'accueil. Qu'est ce qu'on observe:

  • Un mot de bienvenu
  • Une explication de l'objet du réseau
  • les photos immédiatement à droite de quelques membres
  • Les attentes que l'on peut combler en s'abonnant ou en créant son profil...
  • La possibilité d'acheter le livre

Une fois cette lecture terminer un lien vous est proposé pour commencer à lire:

Start reading the book online ?

On découvre un nouvel écran très suggestif qui donne la possibilité de parcourir le livre, de faire une recherche pour ceux qui se seraient trompés et de consulter tous les commentaires.

Ce que j'apprécie particulièrement c'est le graphisme appliqué aux "boutons". L'internaute ne peut pas se tromper sur l'endroit où il peut cliquer pour laisser un commentaire, discuter dans un forum ou faire sa recherche. Par ailleurs le logo vous suit partout sur le site (3) ce qui à mon avis facilitera la rétention du nom du site et réduira les éventuelles perte du trafic du fait de la mauvaise écriture du nom de l'auteur.

Dernier petit élément on remarque qu'il y'a un "footer" très riche. La question est de savoir comment google considère ces données. C'est une question que j'aborderai prochainement. Mais avant toute chose faisons un petit test.

Je vais sélectionner un fragment de commentaire que l'on ne peut à mon avis retrouver que sur The golden Notebook online et je vais faire la recherche sur google pour savoir si cette partie a été crawlée: La réponse est oui!

Posté par Franck NLEMBA

One response so far

Robots.txt: Utilisation du robots.txt pour plusieurs domaines

fév 26 2009 Published by Franck NLEMBA under Crawl

Comme je l'ai déja dit sur SEO business le fichier robots.TXT est un petit doc texte qui permet de donner des recommandations à google et aux autres robots yahoo slurp et MSNBot particulièrement sur les pages du site à suivre et à les contenus à ne pas indexer.

Cette semaine pour un de mes clients j'ai été obligé de résoudre une problématique plus complexe. Une des versions du site (version test) a été indexé par google ce qui me pose un sérieux problème de duplication du contenu (duplicate content).

Face à cette situation en général 2 opportunités se pose en fait on a plusieurs solutions.

Lorsque l'on est dans le même domaine par par exemple www.monsite.com on peut soit faire des redirection 301 des pages d'erreurs vers les bonnes pages, soit bloquer dans le fichier robots.txt certaines url

Par exemple bloquer toutes les urls qui ont un (?)

[www.exemple.com/advanced_search_result.php?keywords=seo

User-agent: *
Disallow: /*?

Soit encore faire une demande de désindexation dans le webmaster tool.

Mais cette fois ci le problème est différent plus que ce que je souhaitais désindexer 

c'est plutôt:

http://fr.monsite.com

L'objectif est donc de bloquer toutes les Urls qui commencent par (fr)

La solution qui me semble la plus appropriée consiste simplement à Créer 2 fichiers robots.txt 

un pour chaque site.

Pour http://fr.monsite.com

je crée un fichier robots.txt avec deux lignes de codes qui interdissent l'indexation de toutes les pages du site

User-agent: *

Disallow: /

Un mois plus tard si le problème persiste je fais une demande de désindexation du domaine sur le webmaster tool.

La question que je me pose aujourd'hui est l'introduction ou pas de la balise 

<META NAME="ROBOTS" CONTENT="NOARCHIVE">

Afin d'empêcher à tous les robots de conserver des copies des pages?
  

No responses yet

Microsoft webmaster live

jan 24 2009 Published by Franck NLEMBA under Microsoft

Pour les amateurs de tracking et d'analyse de site je vous conseille microsoft webmaster live qui est l'équivalent du google webmaster tool. Il s'agit d'un toutil qui donne des informations sur le site (pages les plus importantes, nombre de pages indexées par msn, ... ) des informations sur les liens, le ranking, le crawl...

Pour avoir tester j'ai apprécié l'idée d'introduire un filtre notamment au niveau des ereurs de crawl afin de catégoriser le type d'erreur rencontrer par les robots lors de leur passage.

Par ailleurs les informations sur les liens me semblent mieux structurés que sur le google webmaster tool

Profitez vous aussi des facilités qu'offrent msn webmaster live en vous rendant sur le site.
[ad#ad-1]

Posted by Franck NLEMBA
[ad#ad-1]

5 responses so far