Google

Nouvelles règles pour les sous/domaines sur Google

sept 06 2011 Published by Franck NLEMBA under Liens entrants référencement

Personnellement je suis heureux même si çà reste une annonce que les équipes Google s'attaquent à cette problématique de sous -domaines. En principe avoir un sous/domaine pour l'un de ces sites c'est pas dramatique, c'est même une bonne pratique dans la mesure où çà permet de développer du contenu spécifique.
Cependant c'est assez difficile d'expliquer à un client qu'un de ces concurrents est mieux positionné parcequ'il reçoit beucoup de liens entrants et que la plupart de ces liens entrants proviennent d'un autre site qui en fait fait partie des sites de son réseau.

J'ai personnellement observé celà lorsque je bossais pour les sites qui proposent des services d'assurances et je peux exprimer ma frustration de voir que google considérait un lien en provenance d'un sous-domaine vers le site principal comme un lien entrant purement et simplement.

Ainsi voici ce que je tire de l'annonce faite par Google au sujet de la réorganisation des informations sur les liens internes et externes dans le Google webmaster tools:

  • Le webmasters tool va vous afficher la totalité de vos liens (ce qui est déjà le cas à certains égards)
  • Ainsi comme d'habitude on a deux groupes: les liens internes & les liens externes
  • Avant un site provenant de http://example.com vers www.example.com était considéré comme un lien externe; maintenant Google le considérera comme un lien interne
  • Ceci va s'appliquer à tous les sous-domaines qui sont rattachés à un site principal

gestion-liens_internes

Google a par ailleurs précisé que selon le cas le nombre  total de liens pouvait évoluer à la hausse ou à la baisse suite à ces changements. Par contre au moment où je fais cet article je n'ai pas encore observé de changement sur les liens dans les comptes Google webmasters tools de mes clients, je crois que çà va se faire progressivement. Par ailleurs je précise à ceux qui me posent des questions sur l'impact de ce changement sur Google panda et sur les positions de manière globale; qu'à mon avis cet impact sera très minime car Google a annoncé qu'ils allaient modifier la manière de nous communiquer une information qu'ils ont déjà à savoir le nombre de liens internes et externes qui pointent vers un domaine.

One response so far

Liens d'accès directs: Google facilite l'accès aux pages profondes

août 22 2011 Published by Franck NLEMBA under Conseils Référencement naturel

Le 16 Août dernier Google a apporté une modification à la présentation des liens d'accès directs. Désormais lorsque l'internaute fait une recherche très précise sur une marque, une enseigne ou tout simplement un nom de domaine il aura la possibilité d'accéder directement aux pages internes du site. Google a en effet modifié la présentation des liens d'accès direct en y ajoutant plus de contexte (url de la page et mini description) d'une part mais aussi le moteur de recherche a doublé le nombre de liens maximum proposés à l'internaute (maximum 12 liens) . Google a par ailleurs annoncé que le nombre de requêtes qui proposeront des liens d'accès direct a aussi augmenté.

Les bénéfices pour l'utilisateur sont importants:

  • Possibilité d'accéder directement au contenu voulu
  • Possibilité de voir des pages du site qu'on a pas l'habitude d'explorer (découverte de nouvelles pages)
  • Possibilité d'avoir une vision générale de la structure du site
  • ...

Google a également annoncé des changements dans l'algorithmes de génération de ces liens qui comme les autres mises à jour, proposera plus ou moins de liens d'accès en fonction de l'intention de l'internaute.

Pour mois ces changements vont dans le même sens que les précédents à savoir améliorer la qualité des résultats proposés à l'internaute. En effet tout expert qui s'est interessé de près ou de loin à la détection du comportement de l'internaute s'est très souvent heurté à la catégorisation des requêtes génériques. Prenons l'exemple d'un internaute qui va chercher une chaussure . Il est très difficile pour Google de déterminer avec précision l'intention de ce dernier (recherche t-il une adresse de magasin? souhaite t-il acheter une chaussure? recherche t-il des informations sur l'histoire de la chaussure?...).

Or si le même internaute fait une recherche sur la halle aux chaussures son intention devient tout de suite plus claire bien que la requête reste assez générique. C'est donc pour permettre à cette internaute qui n'a pas encore dit si il voulait avoir des informations sur les sandales de la halle aux chaussures, des chaussures femmes de la halle aux chaussures ou même des informations sur le recrutement chez la halle aux chaussures que les liens d'accès directs trouvent leur pertinence.

liens d'accès directs la halle aux chaussures

Que doivent faire les experts en référencement naturel?

Pour les référenceurs tout ceci a bien sûr impact car il sera question ici de valider la pertinence de la structure du site d'une part et de monitorer les visites vers le spages profondes. En outre, ce sera interessant de faire attention aux éléments suivants:

  1. Créer une alerte sur Google Analytics pour identifier éventuellement des impacts sur le trafic global du site
  2. Mesurer l'évolution des consultations sur la page d'acceuil et les autres pages proposés en accès directs
  3. Vérifier si il y'a une relation entre les sections les plus consultées du site et les liens d'accès directs
  4. Monitorer les liens d'accès directs dans le Google webmasters tools (possibilité de rétrograder une page pour qu'elle ne propose pas des sitelinks)
  5. Monitorer le nombre de résultats de recherche qui entraine la génération des liens d'accès directs

Mise à Jour de Janvier 2012

Google a indiqué qu'ils ont fait des modifications sur ces liens d'accès directs. Voir ici

No responses yet

Redaction de contenu optimisé pour le référencement naturel

jan 29 2010 Published by Franck NLEMBA under Sémantique et mots clés

Cette semaine j'ai rencontré certains webmasters qui s'interrogeaient sur comment rediger des contenus optimisé pour le référencement naturel? La quesion à mon avis ne devrait pas se poser car le véritable souci du redacteur web est de présenter un contenu:

  • Accessible: optez pour une navigation simple et des liens internes qui fonctionnent
  • Pertinent: proposez un contenu en rapport avec les requêtes des internautes
  • Incitatif et suggestif: l'internaute doit se sentir guidé et accompagné sur le site

Donc avant d'aborder la question de la redaction de contenu optimisé pour le référencement naturel il faut d'abord connaitre son offre: A quel type de besoin répond mon produit? A quel type de recherche d'informations mon billet est susceptible d'apporter une réponse. Cette réflexion constitue à mon sens la première étape de la reflexion pertinente.

Ensuite il faut identifier ce que recherche les internautes dans la thématique couverte. Par exemple dans le secteur de l'optique, le webmaster pourra se demander si les internautes:

  • Utilisent des mots clés génériques: lunette, lentilles, verre
  • Des mots clés génériques fonctionnels: "lunette de soleil"...
  • Des mots clés génériques + marque : lunette Rayban...

La troisième phase consiste à optimiser les pages. A mon avis inutile de se prendre la tête sur le nombre d'occurence sur la page, la position des mots clés,...

Diverses expériences nous ont montré que sur certaines requêtes génériques sur www.google.fr on pouvait voir en premières positions des pages qui avaient beaucoup de méta KW (or Google dit ne pas s'interesser à ce champ), des pages sans balises H1 ni H2...des pages avec un footer trop important,...

Ceci prouve bien que les facteurs d'optimisations de la page ne compte pas beaucoup sur le ranking, sur une échelle de 100 il valent 20%, les autres éléments (Age du domaine, Liens entrants, Ancres, contenu frais, accessibilité...) pour 80%.

Pour me résumer l'optimisation sémantique des pages vise à assurer une présence des mots clés les plus importants sur les éléments suivants:

  • META
  • URL
  • Liens internes
  • ALT
  • Body

No responses yet

Liens d'accès directs sur Google

déc 24 2009 Published by Franck NLEMBA under Liens entrants référencement

Très recemment lors du petit dejeuner de l'agence Baobaz à Paris nous avons eu beaucoup de questions interessantes parmis lesquelles celles qui concernaient les liens d'accès directs proposés par Google aujourd'hui. L'une des questions posées étaient justement comment fait-on pour avoir les liens profonds?

La réponse à cette question est bien diffcile dans la mesure où selon les Google ces liens sont générés de manière algorithmique donc pas contrôlable si ce n'est de pouvoir modifier les liens d'accès directs dans le google webmaster tool.

Ce que l'on observe en général c'est que les liens d'accès directs sont toujours en rapport avec des requêtes ou des expressions génériques & populaires : vetement bébé 0-2 ans pour DPAM, "Femme" pour la catégorie chaussure femme de la halle aux chaussures mutuelle santé pour assurland par exemple....

Par ailleurs les pages de destination sont des pages qui ont un bon niveau de pagerank par rapport à la page d'accueil: PR= 4 pour assurland, PR=3 pour HOC ,..Autant dire que dans la manière dont le webmaster structure le site il peut sans le vouloir influencer les liens d'accès directs dans la mesure où les pages de catégories par exemple sont en général très haut placées dans la navigation du site et si elles sont bien nommées il y'a des chances que Google les récupère pour les proposer aux internautes.

Voici quelques raisons qui à mon avis peuvent expliquer la génération des liens profonds:

  1. L'historique: il est plus facile pour les robots Google de générer des liens d'accès directs pertinents si ils connaisent bien le comportement (les liens en général cliqués) par les internautes qui visitent un site
  2. La sémantique général du site: si les catégories sont bien nommées notamment si elles utilisent des mots clés génériques il y'a des chances que vos liens d'accès directs soient rapidement générés par Google
  3. La présence de plusieurs pages dans le site ayant un bon niveau de PageRank
  4. La syntaxe des ancres des liens internes: parfois Google récupère des ancres qu'il trouve dans les pages riches en contenu à l'intérieur du site
  5. La fréquence d'acquisition des liens entrants: plus un site attire de nouveau lien sur des syntaxes différentes plus il a aura la possibilité d'obtenir des liens directs...

Toutefois ceci n'est pas une règle générale dans la mesure où Google continue à améliorer les résultats de sa page de résultats avec l'intégration du fil d'ariane (ce qui confirme mon hypothèse sur le bon nommage des catégorie) permet à l'internaute d'accéder directement à une catégorie haute (que l'on peut estimer pertinente du point de vue du webmaster).

No responses yet

Indexation: Google découvre les pages à travers les flux RSS et Atom

nov 03 2009 Published by Franck NLEMBA under Crawl

Le plus important pour le référencement naturel est de s'assurer que toutes les pages du site sont bien indexées. Les méthodes d'indexation et de crawl ont beaucoup évoluées (voir article sur le real time search.) On se souvient qu'avant pour être présent Google avait besoin que le webmaster du site déclare son site sur une plate forme dédiée http://www.google.com/addurl/.

Quelques années plus tard on s'est aperçut que le fait de déclarer l'url ne suffisait pas car les robots préfèrent découvrir les pages à travers les liens entrants qui pointent vers ces dernières et par conséquent il était préférable pour s'assurer que votre site sera rapidement pris en compte d'obtenir un lien entrant depuis un site qui est déjà crawlé par le google_bot...ou de publier un XML sitemap,...

Dans un communiqué Officiel du google webmaster central blog, Google déclare qu'utiliser les flux RSS permet aux robots d'être informé assez rapidement des nouveaux contenus et surtout des contenus frais.

J'analyse cette information sous plusieurs angles. Je pense d'abord que le contenu "frais" et "actualisé" prend de plus en plus une place considérable dans l'algorithme Google. Nous en avons déjà parlé sur ce blog. En effet avant il suffisait d'avoir pleins de liens entrants vers une page pour qu'elle soit sur les premiers résultats. Aujourd'hui la complexité de l'algorithme fait que sur certaines requêtes la "fraîcheur du contenu" dépasse le nombre et la qualité des liens.

C'est aussi la preuve que l'indexation des flux RSS et Atom est arrivé à maturité chez Google; car on se souvient du communiqué Officiel de Google sur l'indexation des flux RSS des blogs où les équipes Google précisaient que l'algorithme allait désormais indexait le contenu de la page dont le robot découvrait l'Url.

Bien que l'article Google ne soit pas très complet car on ne sait pas si google va se contenter de crawler l'url de la page pour aller indexer son contenu plus tard ou si le crawl et l'indexation de la page se front au moment du crawl du flux?!

Qu'à cela ne tienne je vous conseillerai si vous souhaitez publier des flux rss sur votre site et surtout si vous souhaitez faciliter l'indexation de vos pages il faut faire des flux RSS complets et non partiels. Cela aiderait sûrement à avoir plus de visibilité sur les moteurs de recherche

No responses yet

Gestion des liens entrants sur le site

oct 19 2009 Published by Franck NLEMBA under Liens entrants référencement

"Dis moi qui tu fréquentes je te dirai qui tu es" Google a longtemps appliqué à la lettre ce principe afin de déterminer la qualité des liens entrants. Aujourd'hui google apporte de nouvelles précisions sur la manière de gérer les liens entrants.

Le principe de base est simple: Google découvre les sites sur internet à travers les liens qui lient les pages web entre elles. A ce titre les liens entrants jouent un rôle important dans l'algorithme Google dans la mesure où ils constituent un indicateur de notoriété.

Pendant longtemps avoir des liens entrants en quantité sur un site quelque soit la source permettait très rapidement de se positionner parmis les premiers résultats car plus une page avait des liens entrants, plus elle était pertinente.

Or la quantité de liens n'est pas synonyme de qualité et l'expérience de Crawl de Google l'a amené à sous-pondérer ce critère et à privilégier la "qualité" des liens notion très difficile à évaluer aujourd'hui. En effet il est très difficile même pour moi de donner la définition d'un lien de qualité.

Je pense néanmoins qu'un lien de qualité est celui qui vient d'une source de qualité c'est-à-dire: un site qui a une thématique proche de la vôtre, donc les pages disposent de très peu de liens sortants, qui est crawlé chaque jour par google, qui dispose d'une bonne notoriété dans votre niche et enfin dont les pages disposent d'un bon équilibre sémantique.

Cette notion d'équilibre sémantique (mots clés) pour moi est très déterminante dans l'analyse du lien de qualité car pour moi l'idéal serait que la page émettrice dispose dans sa méta <title> des mêmes mots que ceux utilisés dans l' "anchor" du lien pointant sur le site.

Pour revenir à la gestion des liens entrants, dans un récent article Google précise qu'il est très difficile pour les webmasters de supprimer les liens qu'ils considèrent comme étant du SPAM lorsqu'ils font l'analyse du site sur le webmaster tool. A cet effet Google conseille de pas trop perdre du temps pour supprimer ces liens (des liens provenant de forums dont la thématique est loin de la vôtre ou de commentaires de blogs par exemple) car bien que les liens entrants sont importants dans l'algorithme c'est pas le seul facteur de succès sur les moteurs.

Google propose de mieux organiser le contenu du site, de bien analyser ce que font les concurrents d'utiliser les outils de test d'ergonomie,...

Google précise par ailleurs et c'est l'information la plus importante pour moi de l'article que les liens qui ne sont pas de qualité (SPAM) sont très rapidement supprimés de l'algorithme: " low-quality links rarely stand the test of time, and may disappear from our link graph relatively quickly"...

La première chose qui me vient à l'esprit c'est que google prend bien au sérieux les liens entrants ce qui prouve bien leur importance. La deuxième c'est le dynamisme de l'algorithme de google notamment la mise à jour des liens entrants qu'un site internet reçoit et enfin qu'il existe bel et bien une différence entre les liens de qualité et les autres (SPAM). La question c'est comment Google fait pour définir lequel (lien) est le bon et lequel est mauvais?

A mon avis si le robot s'aperçoit qu'un site dont la thématique est proche de la vôtre fait un lien vers vous pour la première fois il va considérer que ce lien est pertinent et qualitatif. Il pourra par exemple lui accorder une certaine note liée à sa qualité. Cette note qui influence votre ranking pourra varier à la hausse ou à la baisse si par rapport à la requête qui constitue l'ancre, le site émetteur du lien reçoit à son tour des liens entrants sur la page émettrice du backlinks et si d'autres sites font des liens vers votre page avec des ancres similaires.

Concrètement supposons que j'ai une page http://monsite/rideaux-sur-mesure.html qui reçoit 100 liens de diverses sources et qui se positionne à la 13e position. Si cette page reçoit un lien entrant provenant d'un des sites du top 3 sur la requête "rideaux sur mesure" et que l'ancre est soit "rideau" ou "rideaux"ou "rideaux sur mesure"; si les sites émetteurs du lien entrant sont dans la thématique "décoration" il y' a des chances que ce lien soit un lien de qualité. Pour qu'ils puissent le rester et surtout pour que mes positions sur cette requête augmente grâce à l'action des liens entrants j'aurai besoin d'une part que le site émetteur reçoivent des liens entrants avec l'une de ces ancres (rideau, rideaux, ...) et d'autre part que ma page reçoivent elles aussi des liens provenant d'autres sites.

Pour finir il me semble qu'en donnant la possibilité aux webmasters de supprimer des liens provenant de polluposteurs google veut les associer à son fonctionnement et surtout vous restituer votre liberté qui est de choisir comme dans la vie qui sont vos "amis" et d'éviter vos ennemies. Mais même dans la vie on ne connait pas forcément tous ses amis et encore moins ses ennemies voila pourquoi je vous propose de vous concentrer plutôt sur ces conseils données par google pour s'assurer d'un bon système de liens tout en retenant que l'échange de liens notamment à travers les pages partenaires n'est pas aussi décisif que ça:

Le meilleur moyen pour que d'autres sites créent des liens pertinents vers le vôtre consiste à créer un contenu original et pertinent pouvant gagner rapidement en popularité au sein de la communauté Internet. Plus votre contenu est utile, plus vous avez de chances qu'un autre utilisateur le trouve pertinent pour ses lecteurs et propose un lien vers celui-ci. Avant de prendre une décision, quelle qu'elle soit, vous devez vous poser la question suivante : cela présente-t-il un quelconque intérêt pour mes visiteurs ?

Le nombre de liens pointant vers votre site n'est pas le seul critère à prendre en compte, leur qualité et pertinence sont également importantes. La création d'un contenu de qualité est payante : les liens sont généralement des votes éditoriaux donnés par choix et la communauté des blogueurs peut s'avérer excellente pour susciter l'intérêt des internautes.

No responses yet

Choisir les bons mots clés lorsque l'on a un petit site internet

mai 10 2009 Published by Franck NLEMBA under Sémantique et mots clés

L'idée de considérer le trustrank comme le critère le plus important du référencement naturel aujourd'hui me semble fondée.

Fondée d'abord parcequ'il y'a clairement un besoin de la part de google et des moteurs de recherche d'économiser des ressources utilisées pour crawler les sites web, mais aussi parce que le passage au web 2.0 a eu pour conséquence d'introduire de nouveaux acteurs et supports (blogs, réseau sociaux, webzine, flux rss) chaque support ayant ses caractéristiques et son style de diffuser l'information à l'internaute ce qui oblige en gros Google et les principaux moteurs de recherche à utiliser une notion basé sur l'ancienneté du domaine mais aussi sur les liens externes en gros privilégier les pages de certains sites qui existent depuis un moment sur le web et qui sont très populaire par la quantité et la qualité de liens qu'ils attirent.

Ceci condamne plus ou moins deux catégories de sites:

  • Les nouveaux entrants sur des secteurs d'activité très concurrentielle: l'infrmation, le high tech, la mode,...
  • les petits sites internet statiques.

Avant d'aller plus loin observons le SWOT du SEO proposé par seomoz au sujet d'aider les petits sites à se démarquer face aux "gros" sites de leur secteur d'activité:

Cette image est tirée d'un exemple sur un site internet X. Ce qu'il faut retenir c'est que les forces et les faiblesses sont inhérentes au site web (sa structure, le CMS utilisé, la sémantique, le linking interne,...) et les opportunités et menaces sont relatives globalement au secteur d'activité et à la concurrence.

Quand on est un petit site l'analyse SWOT est un bon point de départ. Il suffit à d'analyser:

  1. L'architecture du site
  2. les concurrents (PageRank, sémantique, backlinks,...)
  3. Les pages de résultats Google/ mots clés

Mais faire un bon Swot c'est pas tout car la réalité et la domination des "gros sites" est flagrante et l'intensité concurentielle toujours au rendez-vous:

Prenons lexemple de la requête permis de conduire sur google elle affiche à peu près 2 540 000 pages web suceptible de répondre aux questions de l'internaute.

Resultats page web google sur permis de conduire

Resultats page web google sur permis de conduire

Parmis ces pages la première est un site d'information,puis un site d'information publique...

Permis de conduire on google

Permis de conduire on google

Que retenir:

La présence en première position des pages de sites d'information témoigne que sur cette requête rafraichir le contenu est un critère essentielle >>> Donc pour un petit site créer une page actualités est obligatoire d'une part la mettre à jour est la deuxième obligation

Ensuite un site d'information publique vos droits service publique prouve que le TrustRank est bien très important >>> La stratégie de linking doit prévoir des partenariats venant de sites du "gouvernement".

En plus de ces éléments il y'a bien évidemment la construction en elle même de la base sémantique. Ces étapes vont sûrement vous aider à mieux construire les textes et les desriptions de vos pages:

La première chose est le brainstorming

  • Résumer votre activité en une phrase
  • Essayer de trouver 5 expressions qui résument votre activité
  • En sortir des combinaisons de synonymes, marques, lieux, services complémentaires ou substituables

Regrouper les mots clés en groupes

  • Groupe 1: les mots clés génériques et les expressions de plus de 3 mots (longue traine)
  • Groupe 2: les mots clés complémentaires, substituables, marques

Critère géographique

L'entreprise est-elle présente à l'international, localement, uniquement sur le plan national, régional,...?

Utiliser un générateur de mot clé

Il est préférable de commencer par un brainstorming et d'introduire ensuite le smots clés issus de la reflexion dans un générateur de mot clés plutôt que l'inverse.

En effet les générateur de mots clés proposent des expressions communément utilisées dans la barre de recherche de googe. Ils peuvent donc selon le cas s'avérer pertinenet ou pas car les possibilités d'affiner une requête sont très nombreuses. A ce titre pour certains requêtes de longue traine ils n'ont pas suffisamment de données ce qui posent un problème lorque l'on a un petit site de 10 à 50 pages basée sur une niche.

Toutefois des générateurs comme celui de google générateur de mots clés google aident à enrichir la reflexion par de nouveaux critères: volume de recherche, taux de conversion...

C'est principalement pour ces raisons que je vous conseille d'introduire les mots clés issus de votre brainstorming dans le génrateur qui va à ce moment là jouer le rôle de censeur en proposant des mots clés qui génèrent le plus de recherche sur les moteurs et qui ont le moins de concurrence

No responses yet