- Concours de référencement
-
Optimisation pour les moteurs de recherche
L'optimisation pour les moteurs de recherche, appelé aussi SEO (de l'anglais Search engine optimization) est un ensemble de techniques visant à favoriser la compréhension de la thématique et du contenu d'une ou de l'ensemble des pages d'un site web par les moteurs de recherche. Ces techniques visent donc à apporter un maximum d'informations concernant le contenu d'une page web aux robots d'indexation des moteurs de recherche.
L'objectif de ce procédé est d'orienter le positionnement d'une page web dans les résultats de recherche des moteurs sur des mots-clés correspondant aux thèmes principaux du site. On considère généralement que le positionnement d'un site est bon lorsqu'il est positionné (classé) dans l'une des dix premières réponses d'une recherche sur des mots-clés correspondant précisément à sa thématique.
Sommaire
Historique
Origine : premiers moteurs de recherche
Les moteurs de Recherche les plus utilisés sont des moteurs multilingues généralistes comme Google, Yahoo, AltaVista ou des moteurs spécialisés dans une langue particulière. Selon le moteur visé les procédés à utiliser pourront varier de façon plus ou moins importante. Mais en règle général, les techniques de SEO s'appliquent surtout à Google (90.61% de part de marchés en France sur le mois de Juin 2008).[1]
En 1992, les moteurs de recherches faisaient apparaitre un annuaire, il existait environ 150 sites web référencés ; l'on choisissait un thème et s'affichaient les sites référencés. Alavista et Yahoo ont été les premiers moteurs de recherche, c'est à partir de 1999 que le buzz Google est arrivé ; Google était le plus rapide pour afficher les réponses aux requêtes effectuées par l'internaute ce qui convenait parfaitement aux connexions à l'internet bas débit qui a laissé place ensuite à l'adsl pour tous et google a conservé sa place de leader
SEO : les enjeux
L'optimisation pour les moteurs de recherche (SEO) représente un véritable enjeu car il permet d'augmenter de façon significative le nombre de visiteurs d'un site. Apparaitre sur Google en première page pour une requête forte (exemple "mp3"), assure un gros trafic en volume. En effet, environs 2 tiers des utilisateurs cliquent sur un des résultats de la première page et la quasi totalité ne regardent pas au delà de la troisième.
De part cet énorme trafic potentiel, les webmasters cherchent par tous les moyens de figurer en tête de liste, quitte à "tricher". On a noté à une certaine époque l'utilisation de techniques de spamdexing destinées à flouer les robots des moteurs pour faire remonter le site. Les moteurs ont réagi en modifiant leurs algorithmes de classement pour blacklister ou pénaliser ces sites voyous.
Le but d'un moteur de recherche étant de fournir la requête la plus pertinente à l'utilisateur, les algorithmes de classement des moteurs sont constamment modifiés pour aller dans ce sens, dans celui de l'utilisateur.
La réponse que Google apporte régulièrement à tous les webmasters qui veulent connaitre les techniques pour optimiser leurs sites est de dire qu'ils doivent penser à concevoir un site agréable et pertinent pour l'utilisateur plutôt que de chercher à créer un site pour leur crawler[2]. Même si il existe des pratiques à éviter qui pénalisent le classement d'un site, le meilleur moyen d'avoir un site bien classé reste de faire en sorte qu'il apporte un réel plus pour l'internaute.
L'optimisation pour les moteurs de recherche est donc un domaine difficile à quantifier en termes de résultats : en effet, les algorithmes de classement changent en permanence.
Analyse des liens
Technologie actuelle : nombreux signaux
Les meta-tags ou balises meta permettent d'informer les robots sur certains details du site, comme le langage du site, l'auteur, l'editeur utilisé. Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) :
<meta name="robots" content="all, index, follow" />
[3] Cette balise meta donne pour directive aux robots de suivre et d'inspecter la page. Cependant, les directives par défaut de la plupart des robots sont justement celles-ci, rendant inutile l'emploi de cette balise avec les attributs "all, index, follow". Le code inverse est le suivant :<meta name="robots" content="noindex, nofollow">
[4] Un référencement nécessite des compétences solides au départ pour la mise en place d'une politique parfaitement adaptée aux visiteurs cibles que vous souhaitez faire venir sur votre site. Par la suite, il faut veiller en permanence à la réactualisation et à l'optimisation du travail réalisé.Chasse aux sorcières
Le référencement est toutefois une profession évoluant dans un cadre complexe. Ses techniques de plus en plus innovantes, intègrent évidement des considérations nouvelles constituées sur le marketing, sur le relationnel avec les communautés, sur une veille patiente des évolutions, ainsi que sur une certaine imagination informatique et technique. Mais les enjeux commerciaux auquel répondent les "référenceurs" peuvent être contraires aux enjeux économiques des moteurs de recherche, notamment ceux de Google.
Google (utilisé par 90% des internautes en France) a mis en place, essentiellement, un arsenal de techniques devant empêcher l'indexation de sites jouant de leur position pour vendre des liens payants. Seulement, certaines décisions prises par la multinationale ont heurté de plein fouet la profession qui découvre que Google n'hésitera pas à pénaliser dangereusement tout référenceur [5] sans distinction.
Références
Articles connexes
- Portail de l’informatique
Catégories : Moteur de recherche | Référencement
Wikimedia Foundation. 2010.