mercredi 18 septembre 2013

L'attente du référencement naturel...


Aucun référencement naturel n'est immédiat... 
Pourquoi un site Internet ne s'affiche pas 
immédiatement dans les moteurs de recherche

Il y a un point commun à tous mes clients : ils sont tous pressés. Peu importe si leur site vient d'apparaître sur le Net ou s'il y traîne déjà depuis un bout de temps, plus ou moins "invisible", c'est-à-dire sans être référencé - au moment où ils consultent un référenceur, ils attendent qu'il fasse miracle - miracle, surtout, au niveau du temps de référencement.

Eh non, un site n'est pas référencé dans un jour ou deux. Ceci a deux raisons : la plus importante vient, comme toujours, des moteurs de recherche et, notamment, de Google. Plus ou moins officiellement (rien n'est jamais vraiment "officiel" chez Google), le moteur réclame trois mois pour le référencement d'un site, comptés du jour où la base du référencement naturel est bien établie. Souvent, le client - et le référenceur - ont le plaisir de voir des réactions plus rapides, et une partie des mots clés apparaissent sur des positions déjà très correctes avant que le délai ne soit expiré. Mais personne ne peut compter sur un référencement plus rapide... il faut donc penser au pire et se laisser surprendre.

Mais il est clair qu'un référencement complet et efficace peut accélérer l'apparition du site sur les premières pages des moteurs de recherche. Cependant - qu'est ce qu'un référencement complet et efficace ? Il est vrai que le référenceur n'a qu'à suivre les 200 règles essentielles de Google (tout est une question de maths) pour avoir la garantie que le site soit bien placé. Les règles de base à part, il ne peut toutefois que deviner ce que, dans son cas, est considéré comme "parfait". Car la technique d'un référencement "parfait" pour un site n'est peut-être pas la méthode optimale pour un autre.

Après avoir accompli le référencement naturel de base qui reste le même pour tous les sites Internet, le référenceur ne peut alors que tester ses diverses méthodes et observer, comment les moteurs y réagissent. Et ceci est la deuxième raison pour laquelle le référencement ne peut pas aboutir immédiatement. Le référenceur peut avoir la chance que ses premiers essais ont de succès, mais la "chance" n'est pas vraiment le facteur le plus important dans le référencement. Il faut plutôt partir du principe que c'est l'expérience - plus expérimenté le référenceur, plus grande la probabilité de réussir au premier ou deuxième "coup" - et l'information toujours évoluant sur les priorité des moteurs de recherche.

Malgré tout, même un référenceur expérimenté et à jour des nouvelles des moteurs de recherche ne peut pas garantir un référencement naturel à court terme. Car finalement, c'est Google qui décide de ses délais - et là, aucun référenceur du monde a son mot à dire.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mardi 17 septembre 2013

Liens, anchor text et référencement naturel

Comment composer les "anchor texts" pour qu'ils
soutiennent le référencement naturel ?

Vous avez vu ceci maintes fois : "Cliquez ici". Un tel message inclut, bien sûr, que vous connaissez déjà la raison, pour laquelle vous êtes censé cliquer "ici" - sinon, le lien ne serait pas visité. - Mais, franchement, à quoi ce "Cliquez ici" sert-il ? Si l'internaute ne sait pas, pourquoi il doit y cliquer, ce lien est superflu. Si, par contre, il sait déjà ce qui se cache au bout du lien, il n'en tire aucune information nouvelle.

Et c'est là où nous rejoignons le cheval de bataille de l'équipe de Google et du référencement naturel : elle n'aime pas les phrases qui ne fournissent pas quelque chose de "nouveau". La logique lui donne sans doute raison - ne serait-ce pas plus efficace de donner le renseignement sur le cible du lien carrément dans le soi-disant "anchor text", c'est-à-dire dans le mot sur lequel l'internaute doit cliquer ?

Bref, comme l'équipe de Google suit (la plupart du temps) la logique, elle est contre les liens dont l'anchor text ne fournit aucune information, du genre "cliquez ici", "s'inscrire", "next" ou "prochain page". On a toujours la possibilité de s'arranger pour que l'anchor text soit un peu plus fort. Au lieu de "cliquez ici", on peut y placer le sujet du site et de la page, par exemple "vêtement été" ou "référencementsites multilingues". Pour "s'inscrire", on peut directement dire, où on s'inscrit : "un film par semaine", "lettre d'information sur le référencement", "nouvelles sur les vêtements bébé" etc. "Next" ou "prochaine page" peuvent être remplacés par une indication au contenu de la page en question comme "Plus de vêtements été", "images foire vêtements" etc.

Non seulement que, de cette manière, vous gagnez en quantité, c'est-à-dire que vous pouvez compter quelques mots clés précieux de plus, vous montrez aussi à vos visiteurs que vous ne les considérez pas comme "simples d'esprit", au moins en ce qui concerne leur expérience sur Internet. Car, peu import s'il s'agit d'un lien textuel ou d'un lien dans un menu, il se distingue toujours de l'autre texte par sa couleur ou un soulignement (ou les deux) et il change l'image de la souris dès qu'elle le touche. L'internaute n'a donc aucun problème pour savoir, où il doit cliquer - une indication du genre "ici" n'est alors pas seulement superflu, mais presque ridicule...

La seule question qui reste ouverte est celle qui traite du sens du contenu qu'on donne à l'anchor text. Car il y en a des professionnels du référencement naturel qui sont de l'avis que ce contenu est susceptible de renforcer la visibilité de la page source, c'est-à-dire de la page, sur laquelle se trouve le lien. D'autres favorisent la théorie selon laquelle l'anchor text compte plutôt pour le référencement de la page ciblée.

Comme, jusqu'à ce jour, la réponse à cette question n'est pas découverte par les experts qui, au service des webmasters et référenceurs, font un maximum pour percer les secrets du référencement naturel, la meilleure solution est probablement d'essayer de lier les deux : créer des anchor texts qui aident au référencement de la page source et, en même temps, préparent "l'esprit" des robots au sujet qui les attend sur la page cible.

Ainsi, si, par exemple, un des mots clés importants de la page source est "film" et la page cible se sert plutôt de "romantique", nous utilisons comme anchor text les deux mots, "film romantique" - dans un tel cas, pas de problème. Mais il y a évidemment des situations où une combinaison des mots clés des deux pages est plus difficile à trouver... dans ce cas, c'est au référenceur de montrer ses qualités en tant que professionnel et de trouver la solution optimale...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

samedi 14 septembre 2013

Et si le référencement naturel était parfait pour tous les sites Internet ?

Que ferait Google si le référencement de tous les
sites Internet méritait une "première position" ?

L'autre jour, un client m'a demandé ce que ferait Google si tous les sites disposaient d'un référencement naturel idéal. Question intéressante, vu qu'il n'y a qu'une seule première position par mot clé - en principe réservé au site du meilleur webmaster et référenceur - et dix positions sur la première page. Que ferait Google si, théoriquement, le référencement de tous les sites sur le Net était si bien fait qu'ils auraient tous droit à une première position ?
Rêves ! diraient probablement les responsables de Google et des autres moteurs de recherche. Ils ne croiraient pas que tout le monde pourrait percer leur "secrets" et remplir toutes les conditions pour un référencement parfait. Toutefois - pourquoi ceci ne serait-il pas possible ?

Nous ne pouvons qu'imaginer la réaction de Google et de ses collègues. Tout d'abord, ils affineraient probablement les conditions pour un "référencement idéal". Il ne faut pas oublier que l'équipe de Google n'a pas pour but de "choquer" et de "chasser" les webmasters amateurs avec ses règles, mais qu'elle rêve d'un Web parfait. Si elle avait le pouvoir, elle effacerait probablement du Net tous les sites "non professionnels", c'est-à-dire les sites qui ne servent à rien, ni à diffuser des informations, ni à vendre un produit concret, ni à faire plaisir. Elle interdirait des sites comme les fermes à liens ou ceux qui contiennent des informations insuffisantes, trompeuses et fausses... Bref, Elle rêve d'un Net où un l'internaute n'a qu'à ouvrir un seul site traitant de son sujet pour trouver juste ce qu'il cherche.

Mais les moteurs de recherche n'ont (heureusement ?) pas se pouvoir. Tout ce qu'ils peuvent faire, c'est filtrer les sites par le biais du positionnement et rendre "invisibles" ceux qu'ils jugent nuisibles ou inutiles. Ainsi, si vraiment tous les sites suivaient leurs règles pour un bon référencement, ils seraient déjà plus proches de leur rêve - car un site bien référencé est, selon la définition du référencement naturel, automatiquement un site efficace. Leur réaction logique serait donc de s'approcher encore plus de leur objectif : rendre les règles du référencement encore plus strictes et utiliser leurs filtres pour créer un Net avec des sites encore plus efficaces...

Toutefois, tout à une limite. Allons encore plus loin et partons du principe que les webmasters et référenceurs - tous ! - se soumettraient aux nouvelles règles. À un moment donné, ces règles seraient si strictes que les moteurs ne pourraient plus les renforcer. En ce moment, ils penseraient probablement à rendre la recherche plus détaillée : ils créeraient beaucoup plus de "premières pages" avec des expressions clés plus distinctes. L'internaute aurait alors presque la garantie de tomber immédiatement sur le contenu qu'il cherche - sous condition que les mots clés qu'il choisit pour sa recherche correspondraient au nouveau standard des moteurs...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

vendredi 13 septembre 2013

L'e-réputation et son impact sur
le référencement naturel

Le référencement naturel de l'avenir : Facebook et l'e-réputation

Selon les estimations des experts du référencement naturel, le premier média utilisé pour mesurer le degré de l'e-réputation sera Facebook. Les webmasters ont donc dès maintenant intérêt à se créer un compte - si ce n'est pas déjà fait -, à instaurer, si possible, une page traitant du sujet du site à référencer et à travailler sérieusement sur la question, comment se faire un maximum d'amis et recevoir tant de "j'aime" et de partages que possibles.

Pour se faire un ami, toutefois, il faut lui "offrir" quelque chose, c'est-à-dire lui fournir une raison pour accueillir vos propos dans son fil d'actualité, donc pour vous suivre en permanence. Si le sujet de votre site est assez intéressant pour que tous les membres de Facebook dressent l'oreille dès qu'ils en entendent parler, vous avez évidemment gagné. Mais, rêve à part, le contenu de Facebook est si vaste et les intérêts de ses membres sont si diversifiés qu'il est très compliqué de cibler juste le bon public. Il faut donc travailler sur le nombre - nos chances d'attirer des amis pour le sujet de notre site augmentent proportionnellement au nombre des personnes que nous arrivons à atteindre.

Et même si un membre de Facebook s'inscrit à notre compte, la partie n'est pas encore gagnée. En général, il s'inscrit quand il découvre un post qui le touche particulièrement. Dans un tel cas, il clique sur le compte, regarde la page, découvre peut-être d'autres articles qui l'intéresse et s'inscrit pour, ensuite, retourner à son fil d'actualité. Et à partir de là, il ne pense plus à notre page. Car maintenant, elle a accès à son fil d'actualité - c'est-à-dire que nos posts apparaissent automatiquement parmi les posts de ces autres amis Facebook - et il n'a plus besoin de s'occuper de notre page.


Peut-on dire que ceci est une garantie qu'il lit nos articles ? - Non. Car, déjà, il n'ouvre peut-être pas son Facebook au moment où nous postons notre nouvelle information. À l'heure où il se rebranche sur son compte, il est possible que tant de posts se soient déjà faufilés entre celui qu'il voit actuellement et le nôtre, que le nôtre risque d'être perdu dans les profondeurs de Facebook et notre e-réputation est de nouveau mise en question.

Mais il est clair que, d'autres fois, il est branché à la même heure qu'apparaît notre article : il le voit donc immédiatement dans son fil d'actualité. Toutefois, parmi toutes les informations qu'il reçoit, il est probable qu'il nous a déjà oubliés - pour qu'il nous lise de nouveau et nous donne le fameux "j'aime" ou, comble de l'e-réputation, qu'il partage notre propos, il est donc nécessaire de le fasciner de nouveau.

Ainsi, on ne peut pas compter sur d'anciens posts pour persuader les membres de Facebook qu'il faut absolument lire l'actuel - sauf s'ils ont remarqué nos informations si souvent qu'ils ont retenu notre nom. Mais ceci, selon les statistiques, est rare. Nous avons donc besoin de recommencer à être "fascinants" avec chaque nouveau post.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 


jeudi 12 septembre 2013

Le référencement naturel des sites multilingues : éviter les doublons

Sous quelle condition les moteurs de recherche
considèrent-ils un site multilingue comme "doublon" ?
 
Parlons encore une fois des sites multilingues. Nous avons déjà dit que Google et les autres moteurs de recherche sont capables de distinguer les langues l'une de l'autre sous condition que nous ne plaçons pas plusieurs langues sur une seule page. Si nous refusons la solution de consacrer à chaque version linguistique de notre site son propre domaine - ce qui, du point de vue du référencement naturel, représente toujours la technique la plus efficace -, nous sommes au moins obligés de n'utiliser qu'une seule langue par page.

Nous avons aussi souligné que le référencement doit être réalisé pour chaque version à part : un bon emplacement dans les moteurs de recherche français ne suffit pas pour que la version anglaise ou allemande soit visible dans les pays respectifs. Chaque version a besoin de son propre référencement qui, avec chaque langue, recommence à zéro.

Jusqu'ici, tout est clair. Bien qu'il soit coûteux et parfois long de faire un référencement dans chaque pays, les règles du jeu sont fixées. Toutefois, les experts du référencement se sont posés une autre question : vu que Google refuse (et punit) tout doublon sur le Net, c'est-à-dire deux sites ou deux pages (ou des parties de pages) avec exactement le même contenu, ses robots ne considèrent-ils pas comme doublon aussi deux versions linguistiques d'un seul texte ?

La question n'est pas absurde. Car bien que les représentants de Google assurent que deux versions linguistiques d'un seul site sont évaluées comme deux sites différents - deux versions linguistiques d'un même textes ne sont donc pas considérées comme doublon - il y a, comme si souvent, un "mais". Et ce "mais" se réfère sur la qualité de la traduction.

En fait, le traducteur qui traduit "à la main" n'a rien à craindre. S'il se sert des aides de traduction, tout dépend de leur nature. Ce qui est dangereux - toujours du point de vue du référencement - c'est de se servir des phrases et paragraphes entiers préparés par les traducteurs automatiques appartenant aux sites du style Google ou Bing. Il faut aussi faire attention lorsqu'on se sert des sites d'exemples de traduction comme, pour n'en nommer qu'un seul, Linguée. Dans tous ces cas, le risque du doublon ne vient pas du site d'origine et du site traduit, mais du module ayant fourni l'aide à la traduction.

En principe, la règle est donc claire : tant que le traducteur donne aux différentes versions multilingues son propre style et son propre vocabulaire - c'est-à-dire tant qu'il ne copie pas de phrases entières des sites censés aider à la traduction - tout va bien... sous condition, bien sûr, que le référenceur connaît les attentes et les attitudes des Internautes du pays concerné et sait donner au site l'e-réputation qu'il mérite.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mercredi 11 septembre 2013

Le référencement naturel, les mots clés et le nombre des pages d'un site Internet

Pourquoi le nombre des pages d'un site Internet peut-il 
être essentiel pour la réussite du référencement naturel ?

Parfois, les Webmasters ont tendance à se contenter du référencement naturel de la page d'accueil d'un site. Or, le principe veut que plus de pages sont référencées, plus facilement le site est trouvé par les internautes.

Une des raisons pour lesquelles le nombre des pages référencées est essentiel est la quantité des mots clés avec lesquels le site peut être trouvé. Prenons le fameux exemple d'un site qui vend des vêtements. Si la page d'accueil (et le référencement) est établie correctement, le site est placé sur la première page de Google avec le mot clé "vêtements" ou "vêtements pour adults", "...pour enfants", etc. La page d'accueil annonce donc le sujet général du site et est référencée en conséquence.

Les autres pages contiennent logiquement des sujets plus spécifiques : "vêtements pour bébé", "robes et tops", "collection soirée" etc. Ces mots clés ne peuvent évidemment pas être référencés en relation avec la page d'accueil - déjà, nous ne pouvons pas vraiment compter sur un référencement de plus de trois mots (ou expressions) clés par page. Nous avons donc besoin d'un nombre élevé de pages pour multiplier ce facteur "trois". En plus, le contenu textuel de la page d'accueil qui serait nécessaire pour le référencement de tant de mots clés serait trop important pour être bien regardé par les visiteurs humains (et, par conséquent, par les robots).

Le problème de base du référenceur consiste à se tenir informé des pages d'un site qui sont référencées ou non. En principe, Google a créé la balise "site" pour remédier à ce problème :
site:monsite.com

Or, comme les représentants de Google ont avoué eux-mêmes, cette balise est loin d'être fiable. Une autre possibilité est présentée par les Webmaster-tools de Google - mais ici aussi, la fiabilité n'est pas garantie. On trouve aussi quelques logiciels commerciaux censés aider le référenceur dans sa tâche : mais il sont chers, parfois utiles, mais eux non plus ne donnent pas la garantie de fournir l'information dont le référenceur a besoin.

Ainsi, il ne reste que la "bonne vieille méthode" de scruter les moteurs à la main, c'est-à-dire de surfer sur Google comme le ferait un internaute "ordinaire". Cette méthode est longue, mais efficace et fiable. Même si elle prolonge les heures du travail du référenceur, elle est essentielle pour son succès : elle l'aide d'être toujours informé sur le niveau de référencement du site sur lequel il travaille et lui donne la possibilité d'intervenir en conséquence. Son travail est donc plus ciblé, et il peut consciemment booster les pages et les mots clés qui en ont besoin pour, parallèlement, consacrer moins de temps et d'effort aux mots clés dont les positions dans les moteurs de recherche sont déjà satisfaisants.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mardi 10 septembre 2013

E-réputation, Facebook
et le référencement naturel

L'avenir du référencement naturel : Facebook et e-réputation

Actuellement, les experts ne sont pas entièrement d'accord : les uns disent que l'e-réputation d'un site et de son créateur jouerait déjà un rôle décisif dans le référencement naturel. Les autres pensent qu'en Europe, les robots de Google ne toucheraient pas encore à ce sujet. Mais tout le monde est persuadé que "demain", au plus tard, l'e-réputation serait aussi importante qu'un bon contenu et un réseau correct de liens ciblant notre site.

Que, exactement, entend-on par "e-réputation" ? - Ceci est déjà une bonne question qui n'a jamais été répondue concrètement. En général, cette expression nouvelle se réfère à la popularité du créateur du site et à celle du site lui-même sur le Net. Ainsi, non seulement l'expression est nouvelle, mais aussi la conception, selon laquelle le site et sa qualité ne sont plus les seuls à entrer en jeu : pour la première fois, les moteurs s'intéressent également à la personne du créateur du site - ou à la personne qui signe en tant que créateur.

La meilleure possibilité de donner à un site une bonne e-réputation était, jusqu'à maintenant, de le faire cibler par un maximum de liens qui viennent de sites figurant déjà sur les premières pages de Google et qui traitent plus ou moins du même sujet. Mais il paraît qu'à l'avenir, cette technique ne sera plus suffisante. Il faut, selon les experts du référencement, qu'on parle de lui sur Internet...

... et non seulement de lui, mais aussi de son créateur. Et pour "parler de quelqu'un", il n'y a qu'une seule méthode : les divers réseaux sociaux. Partant donc du principe que, plus un site et son créateur ont des amis, plus ils reçoivent des "j'aime" et plus on partage leurs "posts", plus ils sont connus, donc "e-réputés".

Ces réseaux sociaux ne sont évidemment pas restreints à Facebook. Pour les professionnels, il est aussi important qu'on parle d'eux sur LinkedIn ou Viadeo. De beaux résultats sont également réalisés par Twitter - bien que les status sur Twitter soient extrêmement courts, ils sont lus !

"L'astuce" consiste alors à interpeller un maximum de personnes pour qu'ils deviennent "amis" - c'est-à-dire qu'elles s'inscrivent à notre compte ou à celui que nous avons créé spécialement pour le sujet de notre site, qu'elles cliquent le plus souvent sur "j'aime" et qu'ils partagent nos propos pour les rendre visibles à leurs propres amis qui les diffusent de leur côté.

A première vue, une tâche très simple. Or, les offres sur les réseaux sociaux sont si nombreuses qu'il ne paraît pas si facile d'inciter les gens à s'intéresser à ce que nous avons à dire. Et comme même les professionnels sur Linkeding ou Viadeo ont envie de s'amuser, il ne vaut pas la peine de se limiter au sujet de notre site. Les gens sont certainement contents de trouver des informations sur une bonne offre de vêtements ou un hôtel extraordinaire - mais pour les lire, il faut d'abord qu'ils nous ont "remarqués", c'est-à-dire qu'on a réussi à les attirer par notre esprit et bonne humeur.

Bien que l'e-réputation ne se limite pas à Facebook, il est peu probable que Google et les autres moteurs se concentrent dès le début sur des réseaux professionnels. L'idée, en ce moment, est alors de soigner d'abord notre compte Facebook, c'est-à-dire trouver un maximum d'amis et nous faire remarquer...

... ce qui est probablement le véritable "mot clé" qui explique le terme "e-réputation" : se faire remarquer. Et comme déjà pour le référencement, la question initiale est toujours la même : en quoi notre site mérite-t-il d'être classé par Google avant les autres - en quoi est-il différent ?

Bref, la consigne future pour tout référencement naturel, avec l'aide de l'e-réputation ou non, ne change pas : se faire remarquer si possible par sa qualité ainsi que par son originalité.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

lundi 9 septembre 2013

L'échange de liens et son impact sur le référencement naturel

Les liens consacrés au référencement naturel
et la fin des "fermes à liens"

Heureusement, ces offres deviennent de plus en plus rares - mais il arrive toujours, qu'elles atterrissent dans notre boîte mail. C'est que nombre de "Webmasters" ou même "Référenceurs" ne se sont pas encore rendus compte que l'ère dorée, où il suffisait d'échanger quelques liens avec un autre site pour être bien placé dans Google, est définitivement révolue...

Vous connaissez le principe du mail que vous recevez toujours trop souvent : on vous demande de placer un lien sur votre site et, en contrepartie, on vous promet de placer un pour vous sur le site de votre "partenaire". A une époque lointaine, l'idée n'était pas mauvaise - l'équipe de Google était persuadée que plus de gens trouvaient votre site assez intéressant pour y faire pointer un lien basé sur leur propre site, plus il méritait une bonne position dans les pages des moteurs de recherche.

En principe, ce système a été maintenu. Toutefois, les décideurs de chez Google ont eu largement assez des "tricheurs" qui ne pointaient plus vers des sites qu'ils voulaient recommander à leurs visiteurs, mais exclusivement vers ceux qui, eux aussi, leur consacraient un lien. La recherche d'échange de lien était devenue une véritable profession : des "Référenceurs" qui prenaient leur métier trop à la légère promettaient à leurs clients de leur trouver des centaines de liens si, en contrepartie, ils étaient prêts à placer des centaines d'autres liens sur leur propres sites. Ou, alternativement, ces "professionnels" créaient ce que Google a baptisé des "fermes à liens" - des pages sans aucun contenu, avec rien que des liens.

C'est pourquoi l'idée d'un échange de lien est, entre-temps, devenue beaucoup plus sérieuse - et plus honnête. L'équipe de Google est toujours d'avis qu'un site ciblé par beaucoup de liens doit forcément être intéressant. Mais il a établi des règles qui interdisent l'existence des "fermes à liens" et d'autres liaisons qui ne servent qu'à séduire des robots...

... car n'oublions jamais : selon Google, un bon site est conçu pour servir les internautes - pour les informer, leur faire plaisir et les atterrir. Selon les moteurs, un site qui ne sert qu'à figurer sur la première page de Google ne devrait pas exister.

Bref : il faut toujours des liens pour booster le positionnement d'un site, mais des liens dits "de qualité".

Pour être en mesure d'émettre un lien de qualité, un site - première règle - doit déjà bien être référencé. Ainsi, si vous souhaitez qu'un site pointe sur vous pour augmenter vos chances de référencement, veillez à ce qu'il soit "bien vu" par les robots.

Que ce passe-t-il si un site de faible référencement vous envoie un lien ? - Au début, pas grand-chose. Mais si ces liens deviennent nombreux, ils vous "tirent" en bas : si votre site est déjà bien placé, il perdra son référencement et sera aussi faiblement référencé que les autres. Si, par contre, il n'est pas encore bien placé, il perd tout espoir de l'être dans un futur relativement proche.

Ensuite, Google exige maintenant, que le contenu du site qui envoie le lien soit en relation avec celui du site ciblé. Si vous vendez des pantalons, vous pouvez logiquement vous lier à un site de chaussures. Mais si votre lien émane, par exemple, d'un site d'hôtel, les robots ne "voient" pas de relation et vous punissent pour un "faux lien".

Autrement dit : il est vrai que, pour être bien référencé, votre site a toujours besoin de liens qui pointent vers lui. Mais ces liens doivent figurer sur des pages qui
  1. sont déjà bien référencées
  2. traitent d'un sujet similaire au vôtre
On pourrait évidemment dire que ceux qui ont des sites bien référencés pourraient aider les autres sans réserve - entre Webmasters, on s'entraide. Malheureusement, ceci n'est pas si facile non plus : car Google a développé un système de punir ceux qui sont trop "généreux" - avec chaque lien qu'il envoie, même un site bien référencé perd un peu de sa "force de référencement". Si, par conséquent, il offre trop de liens, ces liens n'auraient plus de valeur et, lentement mais sûrement, il perdrait sa place dans les pages des moteurs...

Toutefois, si vous connaissez un site qui vous plaît tant que vous souhaitez le faire remarquer par vos visiteurs, n'hésitez pas à lui consacrer un lien. Même si, à la limite, ceci ne sert à rien du point de vue référencement, le lien est susceptible de servir aux internautes - un objectif qui même un Référenceur ne devrait pas perdre de vue...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

dimanche 8 septembre 2013

Le référencement naturel des petits sites

Pour le référencement, petits sites n'égale pas site sans contenu

Le monde du référencement est surpris voire ébloui : pour une fois, Google pense aux "petits sites". Mais ne nous précipitons pas - ceci ne veut pas encore dire que ce fameux moteur de recherche a l'intention de mieux indexer les petits sites, c'est-à-dire de renoncer à utiliser la taille du site en tant que critère du référencement. Mais nous constatons quand même que, aux yeux de Google, les petits sites commencent à exister...

C'est qu'un ingénieur de chez Google a découvert que même un petit site peut avoir de la qualité. Ainsi, il s'est demandé si cette découverte est unique ou si, effectivement, il y a un nombre considérable de sites qui sont de qualité, mais de petite taille. Pour trouver une réponse à cette question, Google a publié un formulaire où il demande aux petits sites "mal vus" par les robots de signaler leur existence.

Malheureusement, ni les représentants de Google eux-mêmes ni les nombreux commentaires des experts du monde du référencement n'expliquent exactement ce qu'ils entendent par un "petit" site Web. Jusqu'à ce jour, les Webmasters partaient du principe qu'un site d'un minimum de 12 pages de contenu logique, instructif et bien en relation avec le sujet de la page et de ses titres constituait pour Google un site "digne de ce nom". On pouvait s'attendre à ce que les robots de Google ne "remarquent" même pas un site qui disposait de moins de 12 pages de contenu - les pages de formulaire, de prix, de photos ou d'autres contenus qui ne fournissaient pas d'informations textuelles claires n'étant pas comptées.

Ce chiffre "magique" de 12 pages perdra-t-il son importance dans un futur proche ? - Actuellement, personne ne le sait. Les recherches de l'ingénieur de Google sur les "petits sites" peuvent cibler les sites avec 12 pages considérés depuis longtemps comme "petits" (mais acceptables) par les moteurs ou bien les "véritables" petits sites (c'est-à-dire "petits" aux yeux de leurs Webmasters) d'en dessous de 12 pages...

Par conséquent, il vaut probablement mieux ne pas espérer que Google consacre une pensée aux sites ne contenant que quelques pages et se tenir dans la quantité minimum de 12. Toutefois, le formulaire de l'ingénieur donne une indication qui, bien qu'elle ne fournisse pas de nouvelle information, confirme un principe sur lequel les référenceurs misent depuis longtemps : la qualité du contenu et l'importance et originalité des informations.

C'est que nous trouvons sur le formulaire demandant aux "petits sites" de se signaler une rubrique à remplir qui paraît essentiel : Why does this website deserve to outrank the current websites in Google's search results? What makes this website better? - "Pourquoi ce site mérite-t-il de figurer dans le moteur de Google avant ceux qui, actuellement, sont bien placés ?" Ou, plus clair encore : "Pourquoi ce site est il meilleur (que les autres) ?"

Nous ne connaissons pas l'impact de la recherche sur les petits sites sur leur référencement futur et l'importance du fameux chiffre 12. Mais nous comprenons de nouveau que, pour Google et tous les autres moteurs de recherche, le premier facteur - et le facteur essentiel - du référencement est le contenu, c'est-à-dire son utilité pour l'internaute. La première question à poser avant de s'attaquer à la construction d'un site ou à son référencement reste éternellement la même : en quoi notre site se distingue-t-il des autres et pourquoi, tout simplement, mérite-t-il de figurer sur la première position dans les pages de Google... autrement dit, pourquoi est-il le meilleur ?
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller

vendredi 16 août 2013

Langage technique : les metas, le "robots.txt" et le référencement naturel


Comment interdire aux robots l'accès à certains
dossiers ou fichiers : noindex et robots.txt

A première vue, on n'y pense pas - mais pour un bon référencement, il est nécessaire de décider, quelles pages doivent apparaître dans les moteurs de recherche ou non. Car retrouver certaines pages de notre site sur les premières positions peut déranger le référencement naturel des pages qui sont vraiment importantes.

Nous nous référons, par exemple, à des pages qui n'intéressent l'internaute qu'au moment où il a décidé d'acheter chez nous ou, au moins, d'entamer une relation plus ou moins professionnelle avec notre site. Lorsqu'un internaute clique sur une position dans Google, il attend une page d'accueil ou, alternativement, une page d'information très claire sur le sujet qu'il cherche. Si, au contraire, il tombe sur une page de détails sur une marchandise ou d'un service sans, d'abord, connaître le produit ou sur une page de "contact" ou de prix ou, à l'extrême, du paiement, il ne se sent pas à la bonne place - et quitte le site.

Mais ce problème ne concerne pas seulement l'internaute. Au cas où un robot tombe sur plusieurs pages de ce style - c'est-à-dire des pages sans informations concrètes - il risque également de quitter le site, et notre référencement naturel en souffre.

Comment faire, alors, pour que les robots comprennent, quelles pages ils sont censés référencer ou non ? - La réponse est simple car prévue par les créateur du HTML ou xhtml et leur langage technique. La solution de base se trouve dans les balises "meta" dans le head de notre document ou, plus exactement, dans

L'attribut "index" représente la demande aux robots de bien vouloir référencer la page - de "l'indexer". Si, par contre, nous souhaitons qu'elle ne soit pas référencée, il suffit de remplacer "index" par noindex - et le tour est joué.

Une possibilité plus sophistiquée - on s'en sert dans les cas où le site contient un nombre assez élevé des pages, voir des dossiers entiers, qui sont interdits aux robots - de communiquer aux robots les noms des pages qu'ils doivent référencer consiste dans un fichier "robots.txt", c'est-à-dire un simple fichier texte (.txt) que nous chargeons au niveau source de notre site - donc directement sur
http://www.monsite.com/robots.txt

Dans ce fichier "robots.txt", nous indiquons d'abord les pages que, en général, doivent être visitées par les robots, c'est-à-dire le site entier, pour ajouter les exceptions plus tard :
# Robots.txt file for http://www.monsite.com

Ensuite, nous communiquons aux robots que nous acceptons toute sorte de visite de la part des moteurs et décidons du rythme dans lequel nous souhaitons être visités :
User-agent: *
Crawl-delay: 14

Soit dit à part - si nous ne disposons pas d'un site qui est mis à jour tout le temps, il vaut mieux ne pas "ennuyer" les robots et se contenter d'une visite tous les 14 jours, c'est-à-dire que nous indiquons
Crawl-delay: 14

Finalement, si nous disposons d'un sitemap (on en parlera un autre jour), nous ajoutons encore son adresse qui, par principe, correspond à la source du site
Sitemap: http://www.monsite.com/sitemap.xml

Lorsque, maintenant, nous ne souhaitons pas que nos pages soient visitées - ceci est possible pour, par exemple, un site qui ne concerne qu'un groupe de personnes bien défini - nous ajoutons
# Robots.txt file for http://www.monsite.com
User-agent: *
Disallow: /
Crawl-delay: 14
Sitemap: http://www.monsite.com/sitemap.xml

Au cas où, par contre, nous ne voulons barrer que le chemin vers certains dossiers, nous les indiquons aux robots :
# Robots.txt file for http://www.monsite.com

User-agent: *
Disallow: /bureau/contact/
Crawl-delay: 14
Sitemap: http://www.monsite.com/sitemap.xml

Dans ce cas, tous les fichiers du dossier "http://www.monsite.com/bureau/contact" sont interdits aux robots. Mais si nous ne voulons fermer que certaines pages, le "robots.txt" fournit carrément la liste des "terres interdites" :
User-agent: *
Disallow: /bureau/contact/contact-client.html
Disallow: /bureau/contact/contact-interne.html
Crawl-delay: 14
Sitemap: http://www.monsite.com/sitemap.xml
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 


vendredi 9 août 2013

Le référenceur des sites multilingues et le référencement naturel



Sites multilingues : le référencement naturel exige-t-il la création de plusieurs sites unilingues ?

Tout le monde ne parle pas français ni anglais ni... Et pourtant, l'Internet est un média international. Quoi de plus logique que de vendre nos produits, grâce à Internet, aux internautes partout dans le monde ?

Or, la barrière des langues existe. Bien qu'Internet rapproche le monde, ce monde n'arrive toujours pas à communiquer dans une seule et même langue. Pour s'adresser à un public international, nous avons donc besoin d'un site multilingue.

Toutefois, que le référencement naturel pense-t-il des sites multilingues ? - On s'en doute que ses règles ne sont pas opposées à de tels sites, mais...

Le "mais" de base est le fait que les moteurs de recherche, notamment Google, travaillent séparément dans chaque pays. Ce qui signifie que Google France ne parle ni allemand ni anglais, que Google Allemagne ne parle pas espagnol etc. Il faut donc faire en sorte de s'adresser aux moteurs de chaque pays à leur tour. Si un site est bien référencé en France, cela ne veut pas dire qu'il est visible en Angleterre, aux États-Unis ou en Allemagne.

Si vous envisagez un site multilingue, vous avez alors besoin non seulement d'un traducteur, mais aussi d'un référenceur pour chaque langue - ou, bien sûr, un référenceur multilingue. Il doit faire en sorte que les textes soient rédigés en prenant compte des mots clés de la langue concernée, que les bons mots clés figurent au bon endroit dans la structure des pages et, bien sûr, veiller à ce que chaque version reçoive des liens d'autres sites rédigés dans sa langue. Il ne sert donc à rien, ou presque, d'avoir des liens en provenance de sites français si on veut booster la version anglaise.

Ainsi, du point de vue du référencement naturel, chaque version doit être considérée comme un site à part. Pour présenter ces différentes versions, nous avons - techniquement - deux possibilités : plusieurs sites ou un seul site avec plusieurs versions. Quelle solution est la meilleure pour être bien référencé ?

Sans doute, le plus facile et le plus sûr - pour le référencement - est de constituer un site pour chaque langue avec l'extension .fr pour la France, .de pour l'Allemagne et .com pour les pays anglophones. Il va de soi que nous adaptons aussi les noms des sites : "musique-pour-les-jeunes.fr" devient "music-for-young-people.com" ou "musik-fur-junge-leute.de".

S'il nous manque les moyens de payer plusieurs hébergements, nous pouvons nous débrouiller avec un seul site. Mais attention - une page doit toujours contenir une seule langue. Les robots de Google sont capables de comprendre plusieurs langues sur un seul site, mais ils ne savent accepter qu'une seule langue par page.

Dans le cas d'un seul site pour plusieurs versions linguistiques, il se pose la question de l'appel des différentes versions. Beaucoup de Webmasters misent toujours sur un petit script dans le header des pages (l'espace où on trouve à priori les informations dirigées aux navigateurs et moteurs de recherche) qui lit le code du pays, c'est-à-dire le numéro IP, de l'internaute et le dirige automatiquement vers la version dans la langue adéquate...

Pour l'internaute, ceci fonctionne sans problème. Pour les robots des moteurs de recherche, cela fonctionne pour la version anglaise. Car Google, le plus important de nos moteurs, est situé aux États-Unis, ce qui signifie que ses robots, peut importe pour quel pays ils travaillent, naviguent toujours avec un IP américain. Le script les reconnaîtrait alors toujours comme issu d'un pays anglophone et les dirige vers la version anglaise. Ils ne consulteraient donc jamais les autres versions.

Reste alors la possibilité d'une page d'accueil avec des boutons pour l'appel de plusieurs versions. Or, comme nous avons dit plus haut, les moteurs de recherche n'acceptent pas une page en plusieurs langues - notre page d'accueil doit donc obligatoirement être rédigée dans une seule langue, ce qui signifie que les internautes des autres pays sont obligés de passer par une page avec une langue qui n'est pas la leur...

Une page d'accueil qui ne contient que des boutons pour les différentes versions n'est pas une solution non plus : car n'oublions pas qu'un site ne serait jamais bien référencé si les moteurs n'acceptent pas la page d'accueil. Et pour être accepté, elle doit contenir un texte qui contient les mots clés principaux du site... nous tournons donc en ronde.

Par conséquent, la seule solution logique - bien que Google permette plusieurs versions linguistiques dans un seul site - est de créer un site pour chaque langue et de le référencer dans la langue concernée.

Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

jeudi 8 août 2013

Le référencement naturel et le contenu d'un site




La rédaction du contenu d'un site optimisé pour les internautes,
les robots de Google et le référencement naturel

Selon les statistiques, nous devons partir du principe que 50 à 60 pour cent du trafic sur notre site parvient des moteurs de recherche et, notamment, de Google. Les autres 40 à 50 pour cent sont des internautes qui nous gardent dans leurs favoris, des gens qui nous trouvent par un lien sur un autre site ou, toujours, le "bouche à oreille".

Autrement dit, notre site doit "plaire" autant aux internautes qu'aux robots de Google - peut-être même un peu plus aux robots. L'optimal, toutefois, serait de créer un site qui "plait" aux visiteurs humains et, en même temps, aux visiteurs virtuels.

Un site, grosse modo, consiste dans le graphisme - la présentation optique du site - et dans le contenu. Le contenu d'un site, de son côté, peut consister en images de toute sorte, flash, vidéos et texte écrit. A nos visiteurs humains, le graphisme transmet la fameuse "première impression" - c'est-à-dire que, si le graphisme ne les accroche pas, ils ne restent pas sur le site. Ce n'est que plus tard que l'internaute s'intéresse au contenu du site et à la question, si ce contenu peut lui fournir les informations qu'il attend.

Les robots de Google et d'autres moteurs de recherche n'ont pas besoin de "première impression". Ils ont "l'ordre" de visiter un site et ne s'interrogent pas s'il leur plait ou non. Ainsi, il est évidemment important de soigner la présentation d'un site - un internaute qui ne se sent pas bien sur notre site ne nous place pas dans ses favoris, ne nous donne pas un lien à partir de son blog ou site, ne parle pas de nous à ses copains et, bien sûr, n'achète rien -, mais du point de vue du référencement naturel, ce n'est que le contenu qui compte.

On peut dire que Google et les autres moteurs de recherche sont restés un peu "vieux jeu". Car au début de l'ère d'Internet, les gens ne se branchaient que pour recevoir des informations, d'abord scientifiques (le Net a été inventé plus ou moins par des universitaires), plus tard plus générales. Google et ses collègues insistent toujours sur cette première idée du Web en tant que transmetteur d'informations.

Ainsi, il est logique que les robots ne cherchent que des informations. Et comme, jusqu'à lors, leur technique ne prend pas encore en compte un renseignement transmis par une image (Flash est considéré comme image) ou une vidéo, ce qui nous reste pour "séduire" les robots, c'est le texte.

Autrement dit, tout ce qui compte, du point de vue du référencement naturel, c'est le texte sur les pages de nos sites. A partir de cette information, tout devient simple. Car le rédacteur du texte n'a qu'à se tenir à la logique pour être en mesure de rédiger un texte apte à booster le référencement de son site.

Dans le référencement, on parle beaucoup de "mots clés". Il y a effectivement encore des moteurs qui s'intéressent aux mots clés inscrits dans les balises meta. Google, par contre, ne leur porte pas beaucoup d'intérêt. Ses robots "pêchent" leur mots clés plutôt dans le nom du domaine, dans les titres (la balise "titre" des meta ainsi que les titres des paragraphes) et, bien sûr, dans le texte. Ils partent du principe que le ou les sujets du site déterminent automatiquement les mots ou expressions les plus souvent utilisés.

Ceci est logique : un site qui veut vendre des chaussures mentionne, dans ses textes, souvent le mot "chaussures" ou "bottes" etc. - donc les mots clés les plus importants du site. Un site sur le référencement naturel, par contre, utilise souvent... "référencement naturel". Ainsi, les robots acceptent comme mots clés tout simplement les mots ou expressions qu'ils trouvent le plus souvent dans les textes. Si, en plus, ses mots ou expressions cadrent avec les titres et le nom du domaine, un grand pas vers un bon référencement est fait.

Mais attention, ce système invite à l'exagération. Toutefois - si un mot clé ou une expression est utilisé trop souvent, Google le considère comme spamming - ce qui est puni par la perte d'une bonne place dans ses pages. Pour arriver à un référencement correct, il suffit de rédiger un texte comme si on le rédigeait exclusivement pour un public humain : utiliser les expressions importantes, oui, mais sans exagérer - ce qui correspond à quelque 2% du texte consacré ou mots clés.

De cette manière, tout le monde sera content : les internautes puisqu'ils trouvent un texte bien écrit et bourré d'informations, les robots pour le nombre correct - assez, mais pas trop - de répétitions des mots clés.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller

mercredi 7 août 2013

Le nom du domaine dans le
référencement naturel

Pour que le nom du domaine fournisse un maximum d'informations :
longueur du mot, underscore, tiret...

Beaucoup de bruit autour d'un petit tiret... Tout a commencé avec la possibilité d'utiliser jusqu'à 67 caractères dans le nom du domaine. Cette nouveauté a ouvert de grands horizons. Au lieu de placer dans le nom du domaine les mots: "Hotel Paris", on peut maintenant utiliser "Hôtel Paris près Tour Eiffel" ou même "Hôtel Paris près Tour Eiffel vue sur Seine".

L'avantage, du point de vue du référencement naturel, de rédiger un titre qui donne de plus d'informations possibles sur le contenu du site est évident. Nous l'avons déjà dit: un robot de moteur de recherche vit d'informations. Plus il trouve d'informations, plus il est heureux, plus il nous remercie en plaçant notre site sur une bonne position...

Enfin, un robot n'est pas un être humain. Mais il a été programmé par des êtres humains. Et comme ses programmeur, il cherche la simplicité. Ainsi, pour trouver les informations dont il a besoin, il regarde d'abord les endroits les plus évidents, c'est-à-dire, tout d'abord, le nom du domaine.

Si, par conséquent, le nom du domaine est apte à lui fournir déjà un maximum d'informations de base, nous gagnons beaucoup de points dès le début et nos chances d'être bien référencés augmentent énormément. Un nom du style "Hôtel Paris près Tour Eiffel vue sur Seine" comporte déjà quatre informations de base: "Hôtel", "Paris", "Tour Eiffel" et "Seine". Et avec la nouvelle possibilité de nous servir de 67 caractères (le .com ou .fr inclus), nous pouvons aller encore plus loin.

Mais là, la question du petit tiret se pose - ou, plutôt, la question de la présentation de ce titre. Nous pouvons évidemment utiliser "hotelparisprestoureiffelvuesurseine" - personne ne le nous interdit. Or, déjà les internautes auront des problèmes de compréhension... pour les robots, par contre, qui ont "avalé" un dictionnaire français et non l'intelligence pour réfléchir sur le secret d'un mot long qui ne figure pas dans le dictionnaire, c'est du pur "chinois". Il serait plus logique, si nous pouvions séparer les différents mots pour qu'ils deviennent compréhensibles aux robots. Mais nous savons très bien que des espaces dans les noms du domaine ne sont techniquement pas possibles.

La première solution que les Webmasters ont trouvée était le signe "underscore". Il a été introduit par Windows pour servir en tant que séparateur des mots dans son explorateur - à une époque où il n'a pas encore accepté les espaces. Quoi de plus logique, alors, que de l'appliquer aussi aux noms des sites.

Tout le monde était d'accord, même Google. Toutefois - un "bogue" s'est introduit dans le programme de Google. Un jour, il y a plusieurs années, Matt Cutts, un des chargés de communication chez Google, a avoué ce petit problème et annoncé aux Webmasters soulagés qu'il aurait été éliminé.

Malheureusement, on s'est réjoui trop tôt - bien plus tard, les tests ont montré que les robots n'étaient toujours pas capables d'accepter l'underscore en tant que séparateur. Si on choisissait donc le nom de domaine "hoteldeparis.fr" ou "hotel_de_paris.fr", le résultat était toujours le même: les robots n'ont rien compris. Ils ne comprenaient ni le mot "hôtel" ni le nom de la ville "Paris".

Au grand amusement des référenceurs, la discussion dure toujours. Google promet toujours d'éliminer le "bogue", et la pratique montre que, jusqu'à ce jour, rien n'est sûr. Mais, pour une fois, les référenceurs ont bien le droit de rire - puis que la solution a été trouvée il y a longtemps. Au lieu de se casser la tête sur l'efficacité de l'underscore, il suffit de se servir du simple "tiret". Car dans "hotel-de-paris.fr", les robots comprennent clairement "hôtel" et "Paris", ils ont leur information et toute la discussion sur l'underscore devient, tout simplement, vaine...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mardi 6 août 2013

Le référencement naturel : extension nouvelle
ou extension classique ?

Avant la publication d'un site : quelle extension choisir 
pour optimiser le référencement naturel


La publication d'un site commence, logiquement, avec le choix du nom du site. Et chaque nom du site a une extension. Avant de se décider pour une des extensions nombreuses (le temps où nous n'avions qu'à choisir entre .com et .fr sont révolus depuis longtemps), il faut se demander, quel impact elle aura sur le référencement naturel du site.

Depuis peu de temps, nous sommes confrontés à toute sorte d'extensions nouvelles. De grandes entreprises telles que la SNCF (.sncf), SFR (.sfr) ou autres MAIF (.maif) disposent entre-temps de leur propre extension. Ces inventions - qui coûtaient évidemment très cher à leurs propriétaires - ne sont pas à notre disposition. Nous pouvons par contre nous servir d'un des nombreuses nouvelles extensions qui sont ouvertes au "grand public".

La liste est énorme. Nous avons le choix entre d'extensions relativement neutres du style .home ou .web, mais il y a pleins d'extensions spécialisées comme .art, .shop ou .news.

En principe, nous sommes libres de choisir l'extension qui nous plait le plus, nous ne sommes restreints par aucune loi. Le point de vue du référencèrent, par contre, celui de notre emplacement dans Goggle et les autres moteurs, et - comme si souvent - bien différent.

D'abord la question, si nous avions peut-être un avantage à tirer en utilisant une des nouvelles extensions. Un .book ou .movie ne serait-il peut-être encore moins encombré qu'un .com, et Goggle aurait-il moins du mal à nous repérer ?... Bonne pensée - mais non. C'est plutôt le contraire.

C'est-à-dire - officiellement, Google ne fait aucune différence entre les extensions. Mais en pratique, il arrive que les robots ne savent pas quoi faire avec l'un ou l'autre extension et, tout simplement, laissent le site un peu "à côté" - ou, au moins, nous font perdre quelques-uns des fameux Google-points. Ce n'est par contre pas le cas, s'il s'agit d'une extension apte à leur fournir une information très claire - car c'est cela que cherchent les robots. Si, par exemple, votre site a été conçu pour promouvoir votre nouveau livre, il est idéal de lui donner l'extension .book. Ou si vous avez un hôtel, choisissez .hotel sans hésiter. Et .love aide au référencèrent lorsque vous publier un site de... 

Enfin. La règle est donc simple. Si vous trouvez une extension qui donne une information claire sur l'objectif de votre site, servez-vous-en. Votre référencement ne peut qu'en profiter. Si, par contre, l'extension ne correspond pas à cent pour cent au contenu du site, rabattez-vous plutôt sur les anciennes extensions du genre .com ou .fr. Il ne vaut, par exemple, pas la peine d'utiliser .art si votre site ne parle pas exclusivement d'oeuvres d'art ou .book, si vous parlez d'un livre juste dans un petit coin de votre page d'accueil.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller