- Optimisation pour les moteurs de recherche
-
L'optimisation pour les moteurs de recherche (en anglais, Search engine optimization : SEO) est un ensemble de techniques visant à favoriser la compréhension de la thématique et du contenu d'une ou de l'ensemble des pages d'un site Web par les moteurs de recherche. Ces techniques visent donc à apporter un maximum d'informations concernant le contenu d'une page web aux robots d'indexation des moteurs de recherche. Ces robots, en arrivant sur le site, laissent une empreinte sur le serveur dans le fichier log. Leur passage est repérable par une « signature » propre à chacun[1].
L'objectif de ce procédé est d'orienter le positionnement d'une page Web dans les résultats de recherche des moteurs sur des mots-clés correspondant aux thèmes principaux du site. On considère généralement[2] que le positionnement d'un site est bon lorsqu'il est positionné (classé) dans l'une des dix premières réponses d'une recherche sur des mots-clés correspondant précisément à sa thématique. L'optimisateur moteurs de recherche est un des métiers de l'internet.
Sommaire
Historique
Origine : premiers moteurs de recherche
Les moteurs de recherche les plus utilisés sur le Web sont des moteurs multilingues généralistes comme Google, Yahoo!, Bing ou des moteurs spécialisés dans une langue particulière comme Baidu[3]. Selon le moteur visé, les procédés à utiliser peuvent varier de façon plus ou moins importante. En règle générale, les techniques de SEO s'appliquent surtout à Google (90,61 % de parts de marché en France sur le mois de juin 2008)[4].
En 1992, les annuaires précédaient les moteurs de recherches, il existait environ 150 sites Web référencés ; on choisissait un thème et s'affichaient les sites référencés. AltaVista et Yahoo! ont été parmi les premiers moteurs de recherche, c'est à partir de 1999 que Google est arrivé ; Google était l'un des plus rapides pour afficher les réponses aux requêtes effectuées par l'internaute, ce qui convenait parfaitement aux connexions à l'Internet bas débit de l'époque ; depuis, Google a conservé sa place de leader.
Les dernières statistiques datant de décembre 2009[5], placent toujours Google à la tête du secteur avec 87,8 milliards de requêtes réalisées dans le monde, soit une part de marché de 66,8% et une croissance annuelle de 58%. Yahoo! reste cantonné à la seconde place du classement avec 9,4 milliards de requêtes (+13%), suivi par le chinois Baidu avec 8,5 milliards de requêtes (+7%).
Microsoft restait en décembre dernier[5] le quatrième acteur de la recherche sur le net, avec 4,1 milliards de requêtes sur ses moteurs et une croissance annuelle de pas moins de 70% depuis le lancement de Bing. A noter également la croissance rapide (+91% sur un an) du moteur de recherche russe Yandex qui compte désormais 1,9 milliard de requêtes, devançant ainsi Facebook, Ask ou Alibaba.
SEO : les enjeux
L'optimisation pour les moteurs de recherche (SEO) représente un véritable enjeu à plusieurs niveaux :
- rendre son site visible de façon pérenne ;
- capter du trafic qualifié depuis les moteurs de recherche ;
- gagner une image d'autorité auprès des internautes.
L'objectif du travail d'optimisation du site pour les moteurs de recherche est, dans un premier temps, de définir les termes/les requêtes que les internautes seront susceptibles de saisir pour arriver sur le site. Ces mots clés seront sélectionnés en fonction de l'activité de la société ainsi qu'en fonction du trafic potentiel. Un mot clé trop spécifique n'apportera pas assez de trafic et un mot clé trop générique apportera un grand volume de trafic non qualifié.
Apparaître sur Google en première page pour une requête dite "générique" (exemple « mp3 »), assure un volume important de trafic. En effet, environs deux tiers des utilisateurs cliquent sur un des résultats de la première page et la quasi totalité ne regardent pas au-delà de la troisième.
Du fait de cet énorme trafic potentiel, les webmestres cherchent par tous les moyens à figurer en tête de liste, quitte à « tricher ». On a noté à une certaine époque l'utilisation de techniques de spamdexing (référencement abusif) destinées à flouer les robots des moteurs pour faire remonter le site. Les moteurs ont réagi en modifiant leurs algorithmes de classement pour blacklister ou pénaliser ces sites voyous.
Le but d'un moteur de recherche étant de fournir la requête la plus pertinente à l'utilisateur, les algorithmes de classement des moteurs sont constamment modifiés pour aller dans ce sens, dans celui de l'utilisateur.
La réponse que Google apporte régulièrement à tous les webmestres qui veulent connaître les techniques pour optimiser leurs sites est de dire qu'ils doivent penser à concevoir un site agréable et pertinent pour l'utilisateur plutôt que de chercher à créer un site pour leur robot d'indexation (crawler)[6]. Même s'il existe des pratiques à éviter qui pénalisent le classement d'un site, le meilleur moyen d'avoir un site bien classé reste de faire en sorte qu'il apporte un réel plus pour l'internaute.
L'optimisation pour les moteurs de recherche est donc un domaine difficile à quantifier en termes de résultats : en effet, les algorithmes de classement changent en permanence.
Une méthode efficace pour optimiser un site internet est de se "mettre dans la peau" d'un moteur de recherche et de voir de quelles informations il peut disposer pour classer une page, adresse URL, meta tags, titres, contenus, images, fichiers....
Selon les résultats de l' Observatoire International des Métiers Internet la compétence "Optimisation moteurs de recherche" apparaît comme étant l'une des plus recherchée dans l'ensemble des profils professionnels. Si cela peut apparaître comme logique pour un webmestre ou un webdesigner cela parait plus surprenant, par exemple pour un spécialiste de bases de données internet, mais la manière dont il organise le fonctionnement de sa BDD peut apporter un plus important dans l'optimisation du site. En fait selon les études, cette compétence, mise en avant et prouvée est un atout essentiel dans une phase de recherche d'emploi
Analyse des liens
Les moteurs de recherche savent lire le contenu des liens ou URL des pages de site web comme du texte.
S'il est vrai que la qualité du référencement d'un site commence par la qualité et la pertinence de son contenu offrant un plus pour les internautes, tout est important dans l'optimisation d'un site, y compris les chemins d'accès, les liens url de chaque page.
Si votre nom de domaine est toto.com et que vous proposez des mp3 sur une de vos pages, il faudra faire attention à ce que votre page ne soit pas toto.com/page_1.html mais plutôt toto.com/mp3.html Les moteurs lisent très bien le texte de l'url et donc vos urls doivent aussi vous servir de mots clés.
Exemple : toto.com/ventedemusique.html Le moteur comprendra "vente de musique" mais si votre page est toto.com/page_1.html Le moteur verra "page 1".
Pour les url comme pour le contenu du site, le texte est important et doit comporter judicieusement vos mots clés sans rabâcher.
Les url doivent s'adresser avant tout aux internautes et non aux moteurs !
Google analyse votre site comme un visiteur, vos urls doivent être logiques et en rapport avec le contenu de vos pages.
Techniques White hat et Black hat
Le référencement se manipule de différentes façons, qualifiées de "white hat" et "black-hat". La base du référencement white hat est de créer un contenu de qualité qui va être pertinent à l'utilisateur. La base du black hat est d'utiliser toutes les manières disponibles, quitte à courir le risque de voir son site retiré de l'index de Google ou autre moteur de recherche[7].
Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du "link-building", c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un "backlink".
Quelques techniques black hat consistent à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent.
Technologie actuelle : nombreux signaux
Les balises meta (meta tags en anglais) peuvent avoir plusieurs rôles : indiquer le titre de la page et fournir un résumé de son contenu, informer les robots sur certains détails du site, comme le langage, le type de document consulté, le codage de caractère utilisé, l'auteur de la page,...
Elles peuvent également servir à rediriger automatiquement les navigateurs vers une autre page, à interdire la mise en cache ou l'indexation de la page par les moteurs[8],...Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) :
<meta name="robots" content="all, index, follow" />
[9] Cette balise meta donne pour directive aux robots de suivre et d'inspecter la page. Cependant, les directives par défaut de la plupart des robots sont justement celles-ci, rendant inutile l'emploi de cette balise avec les attributs "all, index, follow". Le code inverse est le suivant :<meta name="robots" content="noindex, nofollow">
[9] Un référencement nécessite des compétences solides au départ pour la mise en place d'une politique parfaitement adaptée aux visiteurs cibles que vous souhaitez faire venir sur votre site. Par la suite, il faut veiller en permanence à la réactualisation et à l'optimisation du travail réalisé.Lutte contre le référencement abusif
Le référencement est toutefois une profession évoluant dans un cadre complexe. Ses techniques de plus en plus innovantes, intègrent évidemment des considérations nouvelles constituées sur le marketing, sur le relationnel avec les communautés, sur une veille patiente des évolutions, ainsi que sur une certaine imagination informatique et technique. Mais les enjeux commerciaux auxquels répondent les « référenceurs » peuvent être contraires aux enjeux économiques des moteurs de recherche, notamment ceux de Google.
Google a mis en place un arsenal de techniques pour contrer des optimisations qui ne respecteraient pas ses consignes de qualité (vente de liens, texte caché, ... ). Certaines décisions prises par Google ont touché certains sites[10].
Références
Lancement de Google Panda en France
- Indicateur.com - Les robots d'indexation
- cours de référencement sous licence Creative commons
- Search Engine Market Share, janvier 2010 — avril 2010
- Webrankinfo.com - Parts de marché des moteurs de recherche en Juin 2008
- Recherche : Google toujours leader, Microsoft remonte, janvier 2010
- Blog Webmarketing - 236 questions/réponses SEO à des Experts de chez Google
- Référencement : Black Hat Vs. White Hat
- Rankspirit - Les balises "Meta" (meta tags)
- The Web Robots Pages
- http://outspokenmedia.com/seo/google-profiles-seo-as-criminals/
Articles connexes
Wikimedia Foundation. 2010.