Le référencement
naturel désigne un ensemble de techniques pour permettre à un site
Internet d’être affiché sur les premières pages d’un moteur de
recherche. Cette technique a pour principal avantage d’être
gratuite et durable dans le temps, mais elle requiert un certain
savoir-faire.
Comprendre le système
d’analyse des moteurs de recherche
Avec plus d’un
milliard de sites mis en ligne, c’est tout naturellement que la
majorité des internautes se tournent vers les moteurs de recherche
pour trouver le contenu qui les intéresse. Google représente la
plus grosse part de ce marché. Comme tous les autres moteurs de
recherche, il a recours à des robots pour analyser tous les sites
mis en ligne afin de les indexer dans sa base de données, et les
propose ensuite à ses usagers.
Ces robots sont
fréquemment mis à jour pour offrir un contenu toujours plus
qualitatif aux usagers, et se basent sur différents critères pour
juger de la pertinence d’un site Internet. Ils s’appuient
notamment sur la qualité et le contenu du site en lui-même, mais
également sur sa popularité. Il est primordial d’être conscient
de ce système d’analyse afin d’adapter votre site Internet aux
règles des moteurs de recherche. En effet, il est prouvé que la
grande majorité des gens ne consulte que la première page proposée
par le moteur de recherche, et sélectionne uniquement les premiers
résultats en haut de cette page. Si un site est référencé en
deuxième ou troisième page, il est donc « invisible » aux yeux
des internautes et verra sa fréquentation chuter.
Le référencement
naturel, ou Search Engine Optimization
(SEO) vous permet de positionner avantageusement un site Internet. Il
se distingue du référencement payant (Search Engine Advertising),
grâce auquel on peut obtenir des liens « sponsorisés » par le
moteur de recherche, et placés en tête des résultats. Le SEO et le
SEA donne le SEM (Search Engine Marketing). Le référencement
naturel est entièrement gratuit et se base sur un ensemble de règles
à respecter pour convaincre les robots d’analyse de la pertinence
et de la qualité d’un site Internet.
Un site Internet de qualité
Le premier
impératif pour obtenir une bonne visibilité, c’est de proposer
aux moteurs de recherche un site Internet tant fonctionnel
qu’ergonomique. Les robots d’analyse sont sensibles au bon
fonctionnement des sites qu’ils explorent. Non seulement Ils
n’acceptent que ceux qui sont sécurisés (notés « https » dans
leur adresse), mais priorisent également les sites sans
dysfonctionnement (erreur de chargement, défauts dans les balises
des textes). Les liens internes permettant de naviguer entre les
différentes pages et les temps de chargement sont également pris en
compte.
Outre le
fonctionnement technique, les robots s’intéressent aussi au
contenu des sites. Afin de les catégoriser dans leur base de
données, les moteurs de recherche veulent connaître le sujet traité
par les sites qu’ils analysent. Étant donné que les robots
passent un temps limité sur chaque site, il est impératif d’en
indiquer le thème de façon claire et rapide, notamment grâce à
des mots-clés spécifiques. Un site Internet pauvre en contenu
textuel sera automatiquement rejeté, et ce même s’il contient
d’autres types de support (comme de l’audiovisuel), car les
robots se basent essentiellement sur les textes pour analyser le
sujet principal des sites. Autrement dit, le texte et le champ
sémantique sont des critères indispensables au référencement
naturel.
Attention, il ne
vous suffit pas d’aligner une série de mots-clés en lien avec le
sujet du site pour être accepté et favorablement positionné par
les robots. Les derniers algorithmes que Google et Bing (nommés BERT
pour celui de Google) ont dévoilés est capable d’analyser le sens
des phrases. Ces derniers analysent également le ton général du
texte. Ils recherchent des phrases construites et des paragraphes
disposés de façon harmonieuse, favorisant le confort de lecture des
internautes.
L’optimisation SEO et le
référencement local
Devenue
incontournable pour un référencement naturel optimisé, la SEO a
pour but de convaincre les robots de la pertinence d’un site par
rapport à des mots-clés associés, tapés par les internautes sur
les moteurs de recherche. Pour se faire, les webmasters doivent
accorder un soin particulier à la rédaction de leurs articles.
Les robots font
l’objet de mises à jour fréquentes afin de proposer un contenu
toujours plus pertinent aux utilisateurs. Ainsi, en plus des
mots-clés, les robots analysent les champs lexicaux et la syntaxe.
Par ailleurs, plus une recherche est précise avec un nombre de
mots-clés élevé, plus le moteur de recherche filtrera les sites
qu’il juge peu pertinents à la recherche associée. Autrement dit,
il vous sera nécessaire d’être au fait des mots-clés couramment
associés au thème de votre site et de les réutiliser afin de ne
pas passer à côté du référencement naturel.
Le référencement
local joue également un rôle important dans la visibilité. C’est
grâce à lui qu’un site Internet est associé à un lieu
géographique. Il est donc essentiel de mentionner l’adresse, la
ville ou la région associée au sujet de votre site Internet. Les
robots d’analyse le situeront géographiquement et le présenteront
aux internautes dès lors que la recherche effectuée soit liée au
même territoire.
Si par exemple
vous êtes installateur de climatisation à Montpellier (Il fait
chaud à Montpellier, on a besoin de climatisation), il vous faudra
enrichir le contenu de vos pages avec le mot clé Montpellier afin
que le moteur de recherche identifie bien que votre activité est à
Montpellier et qu’il propose votre site aux internautes à la
recherche d’un installateur de climatisation autour de chez eux.
Pour optimiser votre référencement local, vous pouvez faire appel à
une agence de référencement de
Montpellier.
La réputation
Dernier grand
critère d’analyse des robots, la réputation des sites est
examinée pour jauger de leur véritable pertinence. Les robots
prennent en compte leur taux de fréquentation, ainsi que le temps
qu’y consacrent les internautes. Si une majorité de personnes
quitte le site après seulement quelques secondes de consultation,
les robots le jugeront comme peu pertinent et le placeront en fin de
classement, et ce même si le site respecte les règles du
référencement naturel.
Dans le même
esprit, les robots analysent également les liens externes : c’est
le netlinking.
Un site incluant des liens menant à d’autres plateformes, traitant
du même sujet, sera classé avantageusement par les moteurs de
recherche. Encore une fois, les liens doivent mener à des sites de
qualité respectant les règles du référencement naturel. Il vous
faut donc soigneusement choisir les sites vers lesquels renvoyer vos
internautes, quitte à n’en sélectionner que quelques uns. Dix
liens vers des sites de qualités, avec une fréquentation accrue,
valent plus que cinquante liens vers des sites mal référencés.
Et
il est très important également de recevoir des liens vers votre
site. Car plus les moteurs de recherche vont voir que d’autres
sites internet font des liens vers le votre, plus il va considérer
votre site comme populaire sur sa thématique et donc le remonter
dans les résultats de recherche. Comme pour les liens que vous
faites, les liens que vous devez recevoir doivent provenir de site de
qualité. Il faut bannir les commentaires sur des blogs, les
annuaires douteux ou les pages ne proposant que des liens et des
publicités adwords. Les liens les plus appréciés par Google et
Bing sont ceux provenant des sites du gouvernement (en .gouv pour la
France). Ces sites faisant peu de liens sortants, les moteurs de
recherche considèrent que les liens qu’ils font sont plus
importants que ceux que vous pourriez faire avec votre site Internet.
Pour rappel,
voici les éléments clés pour obtenir un bon référencement de
votre site Internet :
Avoir un
site techniquement accessible par les moteurs de recherche
Ecrire du
contenu pour l’internaute avec les mots clés les plus importants
pour vous
Travailler
la réputation de votre site en obtenant des liens, mais en
diffusant des liens également.