Qu'est-ce que l'optimisation des moteurs de recherche (SEO)?

L’optimisation pour les moteurs de recherche (en anglais, Search engine optimization : SEO) est un ensemble de techniques visant à favoriser la compréhension de la thématique et du contenu d'une ou de l'ensemble des pages d'un site Web par les moteurs de recherche. Ces techniques visent donc à apporter un maximum d'informations concernant le contenu d'une page web aux robots d'indexation des moteurs de recherche.

L'objectif de ce procédé est d'orienter le positionnement d'une page Web dans les résultats de recherche des moteurs sur des mots-clés correspondant aux thèmes principaux du site. On considère généralement que le positionnement d'un site est bon lorsqu'il est positionné (classé) dans l'une des dix premières réponses d'une recherche sur des mots-clés correspondant précisément à sa thématique.

De plus, le fait de cibler une requête générique (télévision, vente maison, vols pas chers…) est risqué car la compétition sur les pages de résultats ciblés est rude. Une requête spécifique de type longue traîne est également risqué car le trafic sur ces mots-clés est bien moins volumineux.

Le pluriel de l'acronyme SEO peut se référer aux « search engine optimizers » qui fournissent des services SEO.

Historique

Référencement naturel : les enjeux

L'optimisation pour les moteurs de recherche ou search engine optimization représente un véritable enjeu à plusieurs niveaux :

  • rendre son site visible de façon pérenne ;
  • capter du trafic qualifié depuis les moteurs de recherche ;
  • gagner une image de marque auprès des internautes.

L'objectif du travail d'optimisation du site pour les moteurs de recherche est, dans un premier temps, de définir les termes/les requêtes que les internautes seront susceptibles de saisir pour arriver sur le site. Ces mots clés seront sélectionnés en fonction de l'activité de la société ainsi qu'en fonction du trafic potentiel. Un mot clé trop spécifique n'apportera pas assez de trafic et un mot clé trop générique apportera un grand volume de trafic non qualifié.

Apparaître sur Google en première page pour une requête dite « générique » (exemple « mp3 »), assure un volume important de trafic. En effet, environ deux tiers des utilisateurs cliquent sur un des résultats de la première page et la quasi-totalité ne regardent pas au-delà de la troisième.

Du fait de cet énorme trafic potentiel, les webmestres cherchent par tous les moyens à figurer en tête de liste, quitte à « tricher ». On a noté à une certaine époque l'utilisation de techniques de spamdexing (référencement abusif) destinées à flouer les robots des moteurs pour faire remonter le site. Les moteurs ont réagi en modifiant leurs algorithmes de classement pour blacklister ou pénaliser ces sites "voyous".

Le but d'un moteur de recherche étant de fournir la requête la plus pertinente à l'utilisateur, les algorithmes de classement des moteurs sont constamment modifiés pour aller dans ce sens, dans celui de l'utilisateur.

La réponse que Google apporte régulièrement à tous les webmestres qui veulent connaître les techniques pour optimiser leurs sites est de dire qu'ils doivent penser à concevoir un site agréable et pertinent pour l'utilisateur plutôt que de chercher à créer un site pour leur robot d'indexation (crawler). Même s'il existe des pratiques à éviter qui pénalisent le classement d'un site, le meilleur moyen d'avoir un site bien classé reste de faire en sorte qu'il apporte un réel bénéfice pour l'internaute.

L'optimisation pour les moteurs de recherche est donc un domaine difficile à quantifier en termes de résultats : en effet, les algorithmes de classement changent en permanence.

Une méthode efficace pour optimiser un site internet est de se "mettre dans la peau" d'un moteur de recherche et de voir de quelles informations il peut disposer pour classer une page, adresse URL, meta tags, titres, contenus, images, fichiers…

Selon les résultats de l'Observatoire International des Métiers Internet la compétence "Optimisation moteurs de recherche" apparaît comme étant l'une des plus recherchées dans l'ensemble des profils professionnels. Si cela peut apparaître comme logique pour un webmestre ou un webdesigner cela parait plus surprenant, par exemple pour un spécialiste de bases de données internet, mais la manière dont il organise le fonctionnement de sa BDD peut apporter un gain important dans l'optimisation du site. En fait selon les études, cette compétence, mise en avant et prouvée est un atout essentiel dans une phase de recherche d'emploi.

Analyse des liens

Les moteurs de recherche savent lire le contenu des liens ou URL des pages de site web comme du texte. S'il est vrai que la qualité du référencement d'un site commence par la qualité et la pertinence de son contenu pour les internautes, tout est important dans l'optimisation d'un site, y compris les chemins d'accès, les liens URL de chaque page.

Les moteurs lisent très bien le texte de l'URL et donc ces dernières sont les meilleurs mots clés, ce qui peut expliquer leurs prix élevés. Par exemple si un nom de domaine toto.com héberge un site de mp3, il vaut mieux nommer ses pages toto.com/mp3.html plutôt que toto.com/page_1.html. Google analyse les sites comme un visiteur, leurs URLs doivent donc être logiques et en rapport avec le contenu de ses pages.

Techniques White hat et Black hat

Le référencement se manipule de différentes façons, qualifiées notamment de "white hat" et "black-hat". La base du référencement white hat est de créer un contenu de qualité qui va être pertinent pour l'utilisateur. La base du black hat est d'utiliser tous les moyens disponibles, quitte à courir le risque de voir son site retiré de l'index de Google ou autre moteur de recherche.

Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du "link-building", c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un "backlink". En matière de White hat, le Guide d’optimisation pour le référencement édité par Google est une bonne source d'information. Quelques techniques black hat consistent à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent.

Toutefois, certains Webmestres ne peuvent être catégorisés de manière aussi franche. Si la plupart se conforment effectivement aux règles "white hat" pour l'essentiel de leur travail, il est fréquent de voir certaines pratiques "black hat" être utilisées de manière complémentaire. Ces "grey hat", situés entre le blanc et le noir, optimisent l'efficacité du référencement en usant de techniques proscrites avec modération. La difficulté de cette approche consiste à limiter suffisamment l'intensité d'utilisation des procédés "black hat" pour ne pas être désindexé par les moteurs de recherche, tout en en tirant un profit maximum. Contrairement au "black hat", le "grey hat" permet ainsi de minimiser la prise de risque tout en montrant des performances SEO plus importantes.

La sélection des mots clés

Avant de commencer un travail d'optimisation pour le référencement naturel, que ce soit en "white hat" ou "black-hat", la phase préalable essentielle est celle de l'identification et du choix des mots clés. En effet, rien ne sert de se positionner sur un mot clé qui n'est pas lié directement à votre activité, ou si vous avez une faible probabilité de convertir le trafic, ou encore si vous n'avez aucune chance de positionner votre site dans les premiers résultats.

Pour sélectionner vos mots clés, plusieurs outils proposés par Google sont intéressants : l'outil de suggestion de mots clés proposé par Google Adwords ainsi que les suggestions de recherche figurant directement en bas des résultats naturels du moteur.

Vous allez ensuite classer vos mots clés en fonction de trois critères : le potentiel en volume de trafic, le taux de conversion estimé et le caractère concurrentiel du mot clé. Vous distinguerez ainsi deux ou trois groupes de mots clés en fonction de leur difficulté et sélectionnerez dans chacun de ces groupes ceux présentant le plus gros potentiel par rapport à votre activité.

Technologie actuelle : nombreux signaux

Les balises meta (meta tags en anglais) peuvent avoir plusieurs rôles : indiquer le titre de la page et fournir un résumé de son contenu, informer les robots sur certains détails du site, comme le langage, le type de document consulté, le codage de caractère utilisé, l'auteur de la page, etc. Elles peuvent également servir à rediriger automatiquement les navigateurs vers une autre page, à interdire la mise en cache ou l'indexation de la page par les moteur. Les robots, en arrivant sur le site, laissent une empreinte sur le serveur dans le fichier log. Leur passage est repérable par une « signature » propre à chacun. Elle est en général effectuée par un optimisateur de moteur de recherche, un des métiers de l'internet.

Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) : <meta name="robots" content="all, index, follow" />

Cette balise meta donne pour directive aux robots de suivre et d'inspecter la page. Cependant, les directives par défaut de la plupart des robots sont justement celles-ci, rendant inutile l'emploi de cette balise avec les attributs "all, index, follow". Le code inverse est le suivant : <meta name="robots" content="noindex, nofollow"> Un référencement nécessite des compétences solides au départ pour la mise en place d'une politique parfaitement adaptée aux visiteurs cibles que vous souhaitez faire venir sur votre site. Par la suite, il faut veiller en permanence à la réactualisation et à l'optimisation du travail réalisé.

L'optimisation d'un site web va passer par de multiples leviers internes : accessibilité des contenus, codage sémantique, mise en place d'une arborescence optimisée, maillage interne des pages, ajout de contenus frais. Mais les facteurs externes vont l'impacter fortement pour asseoir son autorité aux yeux des moteurs de recherche. Le nombre et la qualité des liens entrants, les signaux apportés par les réseaux sociaux sont autant de facteurs d'influence positifs.

Le référencement naturel est un ensemble de techniques destinées à faire apparaître des pages web dans les résultats non commerciaux des moteurs de recherche. Un référencement naturel de qualité est déterminé par de nombreux facteurs. Si le choix des mots-clés est important, il est primordial d’apporter un soin tout particulier au contenu des pages de votre site internet. Bien penser l’organisation de ses rubriques est un acte capital et il faut savoir prendre le temps de se poser les bonnes questions. Les informations contenues dans les pages d'un site Web conditionnent en grande partie la qualité du référencement naturel.

Aujourd'hui le référencement naturel (SEO) n'a jamais aussi bien porté son nom.Effectivement les algorithmes de Google et spécifiquement PINGOUIN, s'attachent plus à la qualité du contenu des pages web, qu'aux liens retours dit artificiels (Backlinks).

Ces liens souvent considéré comme du SPAM, sont dans la ligne de mire de Google, surtout ceux des fermes de liens ou encore ceux qui demandent une contribution en retour (les liens Payants) totalement bannis par Google. Pour cela, Google utilise l'algorithme PENGUIN.

Google aujourd'hui oriente la qualité de referencement des sites beaucoup plus vers le contenu que les liens externes dit Backlinks. Il utilise pour cela un algorithme très sélectif, souvent mis à jour et qui est la bête noire des referenceurs SEO. D'ailleurs, cet algorithme a été enrichi en mai 2014 et qui a occasionné un déclassement spectaculaire de grands noms de l'internet.

Concernant le contenu des sites Web, la tendance est orientée vers la recherche sémantique que plébiscite Google car ce mode de recherche est adapté à la formulation des questions des internautes sur le Web surtout avec les requêtes vocale sur les smartphones et prochainement sur les Google Glass. C'est pourquoi le referencement en 2014 doit prendre en compte un contenu pertinent et riche, utiliser le web sémantique pour optimiser son référencement naturel et ne pas subir un déclassement soudain avec Panda.

Lutte contre le référencement abusif

Le référencement est toutefois une profession évoluant dans un cadre complexe. Ses techniques de plus en plus innovantes, intègrent évidemment des considérations nouvelles constituées sur le marketing, sur le relationnel avec les communautés, sur une veille patiente des évolutions, ainsi que sur une certaine imagination informatique et technique. Mais les enjeux commerciaux auxquels répondent les « référenceurs » peuvent être contraires aux enjeux économiques des moteurs de recherche, notamment ceux de Google.

Google a mis en place un arsenal de techniques pour contrer des optimisations qui ne respecteraient pas ses consignes de qualité (vente de liens, texte caché… ), on parle de "pénalité". Certaines décisions prises par Google ont touché certains sites.

Les dernières mise à jour importantes de Google sont :

  • Update Panda : pénalité contre les sites ayant peu de valeur ajoutée, trop de publicités.
  • Update Penguin : lutte contre le linking externe abusif.
  • Update Hummingbird (colibri) : vise à améliorer les résultats de google pour des requêtes en langage naturel

La blogosphère SEO

De nombreux blogs consacrés au SEO ont vu le jour, reflétant la diversité des approches du métier. Certains relaient l’actualité, sans cesse changeante, des moteurs de recherche, de manière assez neutre. D’autres relaient un point de vue plus engagé (White Hat ou Black Hat). Certains enfin délivrent des astuces, des stratégies, pour améliorer le trafic d’un site.

Une blogosphère consacrée à ce domaine s’est ainsi peu à peu constituée. Cela a favorisé l’émergence de certains référenceurs, qui ont acquis une influence dans le milieu.

RETOURNER

  • 2 Utilisateurs l'ont trouvée utile
Cette réponse était-elle pertinente?

Articles connexes

Qu'est-ce qu'un nom de domaine?

Un nom de domaine (NDD en notation abrégée française ou DN pour Domain Name en anglais) est, dans...

Qu'est-ce qu'un médias sociaux?

L’expression « médias sociaux » est de plus en plus utilisée et tend à remplacer le terme de Web...

Qu'est-ce DNS?

Le Domain Name System (ou DNS, système de noms de domaine) est un service permettant de traduire...

Qu'est-ce que le Cloud Computing?

Le cloud computing, ou l’informatique en nuage ou nuagique ou encore l’infonuagique (au...

Quel est le protocole Internet IPv6?

IPv6 (Internet Protocol version 6) est un protocole réseau sans connexion de la couche 3 du...

Powered by WHMCompleteSolution