Référencement naturel

Le référencement naturel : qu’est-ce que c’est ?

Lorsqu’on a un site internet, la question du référencement ne tarde jamais à se poser. Comment faire pour que les internautes visitent votre site et fassent ce que vous avez envie qu’ils fassent ? La réponse à cette question est simple : il faut travailler sur le référencement de votre site pour accroître sa visibilité. Il y a 2 manières (complémentaires, d’ailleurs) de le faire : via le référencement payant (c’est-à-dire des annonces) et via le référencement naturel.

Vous n’êtes donc pas forcément obligé·e de mettre en place des campagnes publicitaires auprès de Google Ads et Bing Ads pour amener des internautes sur votre site, mais si vous ne le faites pas, vous devrez travailler sur le référencement naturel. Faisons donc le point sur cette discipline aussi complexe que passionnante…

Référencement naturel : définition

Avec plus de 3 milliards de requêtes traitées chaque jour sur l’ensemble de la planète, Google est le moteur de recherche numéro 1 dans le monde. Si l’on se concentre sur le marché français, on se rend compte que Google gère 85 % des requêtes des internautes. Son principal concurrent, Bing, n’en traite que 11 %. Les autres moteurs de recherche se contentent donc des 4 % restants.

Vous l’aurez compris, pour être visible sur la toile et vous faire une place dans votre secteur, il est indispensable d’être bien positionné dans les résultats de Google.

Le référencement naturel correspond aux techniques qui visent à faire apparaître vos pages web dans les premiers résultats naturels des moteurs de recherche. Par « résultat naturel », on désigne tout ce qui ne correspond pas à des annonces. Comme les annonces payantes, le référencement naturel (dit également « organique ») permet donc d’amener des personnes a priori intéressées par ce que vous proposez sur votre site. C’est en l’occurrence l’un des premiers leviers d’acquisition de trafic en termes de volume.

Il y a des professionnels spécialisés dans le référencement naturel. On les appelle « les SEOs ». L’acronyme SEO signifie à l’origine « Search Engines Optimisation », c’est-à-dire « Optimisation pour les Moteurs de Recherche », mais il désigne aujourd’hui tout autant le secteur d’activité que les professionnels qui sont en charge du référencement de sites web. On dira donc indifféremment un consultant SEO, un SEO, un expert SEO, un référenceur, un spécialiste du référencement, etc. Et on parle donc également de SEO ou de référencement naturel, les 2 termes signifiant la même chose.

Pour réussir à bien vous positionner, il est donc essentiel de vous entourer de professionnels afin :

  • D’optimiser au mieux votre contenu.
  • Et de mettre en place une stratégie SEO.

Comme je l’ai écrit plus haut, il existe une alternative au référencement naturel : le référencement payant, dont l’acronyme est SEA (pour Search Engines Advertisement). La SEA ce sont les campagnes d’annonces que vous programmez via les régies publicitaires comme Google Ads – anciennement Google Adwords – et Bing Ads.

Avec la SEA, vous configurez une campagne publicitaire à 10h00 le lundi matin, vous la déclenchez à 10h30, à 10h35 votre site apparaît sur la 1ère page des résultats de recherche pour les mots-clés que vous avez indiqué. C’est donc immédiat.

Cependant, là encore, il est impératif de mettre en place une stratégie pour s’assurer d’utiliser le budget alloué à bon escient et de positionner votre site internet sur des mots clés pertinents.

Si le CPC (cout par clic) moyen est d’environ 2 €, le principe d’enchères provoque de véritables flambées des prix dans certains secteurs. Comptez, par exemple, plus de 35 € par clic pour le mot-clé « plombier », et aux alentours de 49 € pour « avocat ». Sur la base d’un taux de conversion moyen de 2 à 3 %, ça signifie qu’il faudra en moyenne payer 50 à 75 clics pour avoir 1 client. Soit, pour ces 2 mots-clés, par exemple, entre 1 750 € et 3 675 € de budget. Vous avez intérêt à faire énormément de marge auprès de chaque client, sinon ce n’est pas rentable et c’est bien là où nous en sommes aujourd’hui : les annonces payantes sont de moins en moins rentables. La solution ? Le référencement naturel. Ça tombe bien : c’est précisément le sujet de cet article.

Prenons l’exemple d’un site classé premier dans Google sur une requête tapée 10 000 fois en moyenne tous les mois. S’il se place en première position des résultats des SERPs (Search Engine Result Page), il captera environ 30 % du volume total des internautes qui font une recherche sur ce mot-clé (nous y reviendrons plus bas), soit 3 000 visites. L’’équivalent en Google Ads coûterait des milliers d’euros tous les mois.

On comprend alors aisément l’intérêt d’investir dans le référencement naturel plutôt que dans les annonces payantes.

SEO et SEA sont donc deux méthodes différentes et complémentaires qui permettent d’attirer des prospects sur votre site. Toute la subtilité réside dans la stratégie mise en place pour utiliser l’une et l’autre de manière judicieuse.

Comprendre les mécanismes d’indexation et de classement

Lorsqu’un internaute tape une requête dans Google, le moteur de recherche doit pouvoir lui fournir instantanément une liste de pages pertinentes à visiter. Cette liste de pages est censée répondre au mieux à sa recherche et à l’intention sous-tendue par cette recherche. Google arrive à comprendre cette intention de recherche en analysant le comportement des internautes (les recherches qu’ils effectuent ensuite, le temps qu’ils passent sur les pages qu’ils visitent, la manière dont ces pages ont traité le sujet, etc.).

C’est grâce à cette analyse complexe que Google affine et ajuste le classement des pages web dans les pages de résultats de son moteur de recherche. Par exemple, lorsque vous écrivez « consultant référencement » dans le champ de recherche, vous vous attendez naturellement à ce que les pages qui apparaissent vous proposent des professionnels du référencement et non pas la définition de ce terme. Mais alors, comment le moteur de recherche parvient-il à ce résultat ? C’est ce que nous allons voir…

Pour indexer les milliards de pages web publiées chaque jour, Google dispose d’un robot. Il porte le nom de Googlebot. Googlebot crawle des milliards de pages web quotidiennement. Il collecte alors tout un tas d’informations qui sont remontées puis analysées et traitées par une série d’algorithmes dévolus chacun à une analyse et à une tâche particulière.

Ces algorithmes sont un ensemble de traitements informatiques dont le but est de classer les pages afin qu’elles répondent au mieux aux attentes des internautes. Ils analysent en quelques millièmes de seconde la structure du texte, les images qui illustrent ce texte, les mots-clés et le champ lexical utilisés. Ils peuvent ainsi déterminer le sujet traité par un article et le proposer aux internautes qui font une recherche en rapport.

Pour bien comprendre le mécanisme du référencement, il est utile de connaitre les grandes étapes d’évolution de Google depuis ses débuts.

Histoire accélérée du moteur de recherche

Créé en 1997, le moteur de recherche n’a cessé de se développer pour répondre aux besoins de ses usagers. Le tout premier algorithme de Google, Page Rank, permettait de classer les pages en fonction de leur popularité. Google partait alors du principe que, plus il y avait de liens qui pointaient vers un site, plus celui-ci était pertinent. Ce fut le début d’un long processus d’amélioration des contenus proposés aux internautes.

En 2000, Google Adwords, la première régie publicitaire du moteur de recherche, fait son apparition.

Les années suivantes, de nombreuses applications ont été développées : Google images, Google News, Froogle (aujourd’hui appelée Google Shopping), Gmail, Google Maps, Google Analytics, Google Trends, etc.

En 2008, Google Chrome est lancé avec une fonction très appréciée : la barre d’adresse sert également de champ de recherche. La saisie semi-automatique fait son apparition peu de temps après.

En 2009, Google Traduction est créé, il est disponible dans plus de 50 langues.

Par la suite, des mises à jour majeures vont remettre en cause le positionnement des pages dans les résultats de recherche. Désormais, gare au black hat !

En 2010, Caffeine accélère le système d’indexation des pages.

En 2011, la mise à jour Panda a conséquences très importantes en matière de référencement naturel. Les sites qui proposent du contenu de mauvaise qualité ou du contenu trop similaire à d’autres pages sont déclassés voire carrément désindexés. Depuis un paquet d’années, il était déjà devenu impossible d’être bien positionné en se contentant d’aligner des mots-clés dans la meta keywords, comme au début des années 2000, mais Panda met cette fois un terme à des pratiques comme le keyword stuffing. Les articles doivent désormais être pertinents, sans suroptimisation excessive et suffisamment différents de ce qui a déjà été publié sur la toile ou sur d’autres pages du même site.

Le réseau social Google + est lancé la même année, mais il ne réussit pas à s’imposer face au géant Facebook. Il sera finalement supprimé en avril 2019.

En 2012, plusieurs algorithmes ont fait leur apparition. Top Heavy a notamment permis de pénaliser les sites surchargés en publicités.

Penguin, mise à jour majeure de Google, pénalise les sites qui abusent des campagnes de netlinking et de l’utilisation d’ancres optimisées pour manipuler les classements dans son moteur de recherche.

Pirate pénalise les sites qui ont reçu des plaintes pour violation des droits d’auteur.

EMD (Exact Match Domain) permet, quant à lui, d’éviter que certains sites soient bien référencés uniquement parce que leur nom de domaine correspond à une requête.

En 2013, l’intelligence artificielle Hummingbird permet d’interpréter les requêtes des internautes de façon plus rapide et plus précise. Google peut ainsi proposer des « recherches associées » à ses utilisateurs.

Par la suite, Pigeon a renforcé la prise en compte du positionnement géographique de l’internaute pour l’affichage des résultats et Mobile Friendly a pénalisé les sites non responsive.

Avec ces mises à jour, Google s’applique à satisfaire au mieux ses utilisateurs. Les sites qui ne répondent plus aux standards de qualité requis sont pénalisés et deviennent quasiment invisibles dans les pages de résultats. En effet, soit les pages problématiques ne sont plus indexées, soit elles sont très mal positionnées dans les SERPs.

Les pénalités peuvent être automatiques – et on parle alors de pénalités algorithmiques – ou appliquées à la main directement par les collaborateurs travaillant chez Google : on parle alors de pénalités manuelles. Un site pénalisé peut ainsi passer de la première place à la 15ème page de résultats du jour au lendemain. Les conséquences sur le chiffre d’affaires de l’entreprise sont, en général, catastrophiques.

Les mises à jour n’étant pas souvent annoncées par Google, il est important de rester en veille constante.

Les mystères de l’algorithme de Google

Si Google affiche publiquement des consignes à l’attention des webmasters, les algorithmes, eux, prennent en compte plus de 200 critères pour le référencement. Ainsi, il est très difficile pour un non-initié de définir précisément quelles sont les bonnes pratiques à adopter.

À l’heure actuelle, on sait que différents éléments on-site ont une influence sur l’indexation et le référencement des pages web :

  • Le sitemap.
  • La méta title.
  • Les titres et sous-titres.
  • Les balises HTML.
  • La structure des URL.
  • Le texte (qui doit être pertinent et de bonne qualité).
  • Le choix et le positionnement des mots-clés.
  • Le maillage interne.
  • L’attribut Alt des images.
  • Le temps de chargement.
  • Le fait que le site soit responsive ou pas.
  • Etc.

Si tous ces éléments sont essentiels pour l’indexation et le référencement de votre site, Google prend en compte également certains facteurs extérieurs comme la popularité du site et la qualité des liens qui redirigent vers celui-ci (que l’on appelle indûment des backlinks).

Le fait que les internautes aillent spontanément sur un site web en tapant son adresse ou son nom de domaine dans la barre d’adresses, ou dans le moteur de recherche est un signe de notoriété qui a un impact dans le classement de ce site.

Le moteur de recherche analyse également la notoriété des sites qui publient des liens pointant vers vos pages. Ainsi, il est plus intéressant de n’obtenir que 2 ou 3 liens provenant de sites reconnus (on dit souvent « trustés ») que 10 ou 15 liens en provenance de sites moins populaires et moins bien positionnés dans les SERPs.

Google accorde par ailleurs une grande importance à l’expérience utilisateur. Si les lecteurs se promènent de page en page sur votre site et semblent y trouver ce qu’ils recherchent, Google en déduit que votre contenu est pertinent et que votre site satisfait les internautes. Il mettra donc celui-ci en avant dans ses résultats de recherche.

Les enjeux du référencement naturel

S’appliquer à respecter les règles en matière de référencement est donc capital pour votre visibilité. En effet, les internautes sont en général relativement pressés et veulent obtenir des réponses à leurs questions rapidement. Les statistiques révèlent que 94 % d’entre eux se contentent de cliquer sur les résultats affichés en première page et vont beaucoup plus rarement sur la deuxième page. Les taux de clics moyens en fonction de la position des pages web dans Google sont d’ailleurs très révélateurs :

  • La 1ère position obtient 31,73 % des clics.
  • La 2ème position 24,71 %.
  • La 3ème position 18,66 %.
  • Et à partir de la 6ème position, on tombe au-dessous de 6 %.

On comprend ici l’enjeu que représente le référencement naturel dans une stratégie marketing. Une page en tête des résultats sur des mots-clés précis (on parle de « longue traîne ») va générer du trafic hautement qualifié, en touchant des internautes susceptibles de passer à l’action. Le fait d’atteindre la première position dans Google pour des mots-clés stratégiques produit donc généralement une augmentation de chiffre d’affaires (très) importante. Il est fréquent que des entreprises se développent de manière incroyable grâce au référencement naturel.

Pourquoi confier son référencement à un professionnel ?

Nous l’avons vu, pour être bien référencé, il faut réussir à produire du contenu qui soit évalué par le moteur de recherche comme étant pertinent pour certaines requêtes et répondant aux attentes des internautes. Pour ce faire, les agences web disposent d’outils qui permettent de le faire en s’appuyant sur des algorithmes de calcul de pertinence sémantique, basés notamment sur la prise en compte des vecteurs de contexte et des vecteurs sémantiques (il s’agit des différentes composantes sémantiques d’un terme). Une personne qui n’est pas du métier et qui ne dispose pas de ces outils et des connaissances requises n’a strictement aucune chance de performer à ce niveau.

Par ailleurs, il faut que l’architecture du site, les technologies employées, les performances d’affichage, le poids des pages, et une multitude d’autres éléments techniques – trop nombreux pour être cités ici – soient optimisés. Et ça, c’est le rôle d’un développeur spécialisé dans la SEO. N’imaginez pas une seconde pouvoir arriver au niveau d’optimisation requis si vous ne savez pas lire, écrire ou modifier des lignes de code dans des langages comme php ou javascript.

La création et l’optimisation technique de sites web, l’analyse des mots-clés, l’analyse de l’intention de recherche des internautes, le recensement des questions induites, la production de contenus optimisés… Ce sont des choses que l’on met des années à apprendre.

Il y a le savoir (les connaissances) et la maitrise. La maitrise consiste à appliquer ses connaissances pour obtenir un résultat optimal vis-à-vis d’un objectif prédéterminé. Or, comme dans la plupart des métiers, sur 100 professionnels, il n’y en a peut-être que 3 dont on peut dire qu’ils maîtrisent leur domaine, qu’ils sortent du lot. La différence entre les personnes qui maîtrisent et les autres, c’est l’expérience, la passion, le talent, l’intuition et une part d’irrationnel qui fait que certaines personnes sont devenues franchement meilleures que d’autres dans leur métier. On retrouve cela dans toutes les corporations. À chacun son métier, donc ! Ne croyez surtout pas devenir référenceur en suivant une formation pendant 1 an et en l’appliquant sur un seul site, ce serait totalement irréaliste, même si certaines sociétés cherchent à vous bercer d’illusions en vous vendant une formation ou un accompagnement par un « expert SEO » qui ne connaissait sans doute rien dans ce domaine 6 mois ou 1 an avant.

Le référencement naturel est une discipline qui prend du temps. Il faut généralement 6 à 9 mois de travail avant de commencer à observer des résultats. Cependant, une fois générés, les bénéfices de ce travail s’inscrivent dans la durée et s’amplifient même parfois avec le temps.

La visibilité, et par conséquent la rentabilité de votre site internet, dépendent de votre stratégie digitale. Se lancer seul dans cette aventure est irréaliste, cela vous fera perdre beaucoup de temps et vous n’obtiendrez que peu de résultats.

Les agences SEO disposent d’outils extrêmement performants pour mener à bien toutes les tâches relatives à l’amélioration du référencement naturel. Elles bénéficient également de l’expérience combinée de chacun des membres de leur équipe. Ce facteur représente une valeur inestimable quand on sait qu’un consultant SEO en agence devient bon — s’il est bien formé — au bout de 3 ans. C’est l’échec assuré pour une personne seule dans son coin, sans soutien, sans mentor, sans directives, sans contrôle de son travail et sans les outils qu’il faut…

Comment choisir un professionnel de la SEO ?

Pour éviter de perdre plusieurs mois voire plusieurs années à essayer de booster votre visibilité dans les moteurs de recherche, la meilleure option est de vous tourner vers un professionnel. Mais, comment s’y retrouver ? Il y en a tellement…

C’est pourtant simple : on ne peut pas expliquer à ses clients qu’il est fondamental d’avoir un bon référencement en étant soi-même mal référencé. L’excuse du cordonnier mal chaussé c’est pour les pigeons. Les bons référenceurs sont présents en 1re page sur les mots-clés les plus stratégiques, c’est-à-dire ceux qui sont tapés par les internautes à la recherche d’un expert SEO : « consultant SEO », « agence SEO », « expert SEO », « spécialiste SEO », « consultant référencement », « agence de référencement », « société référencement », « agence web SEO », etc.

Pour savoir quels sont les meilleurs professionnels, relevez les sites qui sont classés sur tous ces termes en 1re page de Google, puis regardez ceux qui sont présents partout. Attention : les plus malins ont plusieurs sites, ils ne mettent pas tous leurs œufs dans le même panier et c’est bien, ils ont raison, il vaut toujours mieux être prudent.

Alors, que voulez-vous, pour votre site web ? Un référenceur qui va vous sortir la fameuse excuse bidon du cordonnier mal chaussé ? Ou un professionnel qui se classe mieux que la plupart de ses confrères sur les mots-clés importants et qui saura donc également obtenir ce résultat pour votre site web ?

Prenez le temps d’analyser les sites internet des quelques agences SEO et consultants SEO susceptibles de vous intéresser. Certains sont spécialisés dans un type de référencement, d’autres se focalisent sur la conception du site, d’autres encore sont plus généralistes et seront à même de vous accompagner sur tous les aspects inhérents à votre projet.

Renseignez-vous également sur l’application d’une clause de non-divulgation et d’exclusivité. L’idéal étant de choisir une agence SEO qui applique l’une et l’autre, en ne mentionnant pas le nom de ses clients afin d’éviter tout risque pour chacune des parties et en ne travaillant pas pour 2 entreprises concurrentes.

Et faisons décoller le trafic de votre site web !

Expérience Managériale

J'ai fondé ma première entreprise en 2002. Depuis plus de 15 ans, j'assume la direction d'une agence web et SEO, en pilotant une équipe composée de 12 personnes à l'heure où j'écris ces lignes : développeurs, rédacteurs, graphistes, experts SEO, chargés de campagnes SEA, auxquels se joignent ponctuellement quelques consultants externes de haut vol dans différentes disciplines (informatique, linguistique, data sciences...).

50 nuances de SEO

Bien que depuis de nombreuses années je n'emploie quasiment plus de techniques que l'on pourrait qualifier de black hat, je ne pousse pas pour autant des cris de vierge effarouchée lorsqu'on me parle d'automatisation. Toutes les connaissances peuvent s'avérer intéressantes et je me suis intéressée à absolument tout ce qui touche le SEO, sans à-priori stupides.

Une volonté d'apprendre

Ce qui est passionnant dans ce métier, c'est que l'on apprend constamment de nouvelles choses. C'est d'ailleurs absolument impératif pour ne pas régresser. J'ai beaucoup de chance de pouvoir collaborer notamment avec des Laboratoires d'Informatique universitaires et des UMR (Unités Mixtes de Recherche), cela m'amène constamment à approfondir mes connaissances.

Glossaire du référencement naturel

SEO : acronyme de « Search Engine Optimization » soit « optimisation pour les moteurs de recherche », en français. La SEO peut être définie par l’ensemble des méthodes qui visent à positionner une page dans les premiers résultats naturels d’un moteur de recherche. L’objectif principal de la SEO est de parvenir à ce que les internautes intéressés par un sujet arrivent naturellement sur vos pages web. C’est un domaine très vaste, en perpétuelle évolution, qui nécessite des connaissances pointues. Reprendre ma lecture.

SEA : acronyme de « Search Engine Advertising » soit « publicité sur les moteurs de recherche », en français. La SEA désigne l’ensemble des solutions publicitaires proposées par les moteurs de recherche. Le but de la SEA est de placer des liens sponsorisés sur les pages de résultats des moteurs de recherche. Il faut pour cela choisir les mots-clés sur lesquels on souhaite se positionner et définir une enchère, c’est-à-dire le montant maximal que l’on est prêt à dépenser pour un clic. Il est également possible de placer des images ou des bannières publicitaires sur des sites web via le canal “display”. Reprendre ma lecture.

CPC : acronyme de « cout par clic ». Le cout par clic est un modèle publicitaire reposant sur une facturation au clic. Les annonceurs paient donc le diffuseur uniquement si les internautes cliquent sur leurs liens. Généralement, le tarif d’un clic est défini par un système d’enchères entre annonceurs sur chaque mot-clé. Reprendre ma lecture.

SERP : acronyme de « Search Engine Result Pages ». Les SERP désignent les pages de résultats qu’un moteur de recherche affiche suite aux requêtes des internautes. Ces pages contiennent des résultats naturels, mais aussi des publicités, des recherches associées, des featured snippets (informations en position zéro), des images, des vidéos, etc. L’enjeu du référencement dit « naturel » est de positionner vos pages web sur la première page de résultats, pour obtenir le plus grand nombre de clics et de visites. Reprendre ma lecture.

Googlebot : c’est le robot d’exploration de Google. Reprendre ma lecture.

Black hat : le black hat désigne une pratique consistant à automatiser au maximum le travail de référencement, en comptant non pas sur la durée et la qualité, mais sur le rapport entre l’effort consenti par le référenceur black hat et le retour financier généré par cet effort. Par opposition, les référenceurs white hat s’appliquent à mettre en place des stratégies qualitatives et pérennes. Reprendre ma lecture.

Meta keywords : la balise meta keywords est une balise qui se trouve dans le code source HTML d’une page web. Elle indique au moteur de recherche les mots clés qui sont développés dans le contenu de la page. Aujourd’hui cette balise ne présente plus d’intérêt pour le référencement puisqu’elle ne fait plus partie des critères pris en compte par Google. Reprendre ma lecture.

Keyword stuffing : terme anglais signifiant littéralement “bourrage de mots clés”. Cette pratique consiste à remplir ses pages web de mots clés en s’imaginant que cela vous aidera à bien vous positionner dans les SERP. C’est une vieille technique désuète, désormais pénalisée par les moteurs de recherche depuis des années. Reprendre ma lecture.

Netlinking : stratégie visant à augmenter le nombre de liens pointant vers un site internet dans le but de manipuler les algorithmes des moteurs de recherche en faisant croire que le site bénéficie d’une certaine notoriété, ce critère étant déterminant pour améliorer le référencement d’un site et générer du trafic qualifié. Reprendre ma lecture.

Responsive : le contenu d’un site réalisé en responsive-design s’adapte automatiquement à la taille de l’écran utilisé par l’internaute. Cela favorise grandement l’expérience utilisateur. C’est aujourd’hui un critère déterminant pour le référencement d’un site web depuis 2018 et l’indexation « mobile first » de Google.  Reprendre ma lecture.

Backlink : lien pointant vers une page de votre site internet. Pour être bénéfique au référencement d’un site, un backlink doit respecter plusieurs critères. Il doit être placé sur une page dont le texte traite d’un sujet connexe à celui de la page qui bénéficie du lien. Le lien ne doit pas avoir l’attribut nofollow, il ne doit pas être obfusqué (Googlebot doit pouvoir le voir) et s’il est issu d’une page populaire qui contient peu de liens sortants, c’est encore mieux. Reprendre ma lecture.