(+33)0б75ЗЗ5144 contact@aurelien-bleriot.fr https://www.linkedin.com/in/aurelienbleriot/

Petite histoire du référencement naturel (SEO)

S’il fut un temps où l’indexation de site internet dans les moteurs, aussi appelée « référencement naturel » était aussi simple qu’un bon code source, un contenu truffé de mots-clés, terminée par l’inscription dans les premiers annuaires en ligne, celui-ci est bien révolu !

Le SEO, acronyme de Search Engine Optimization (littéralement Optimisation pour les Moteurs de Recherche), est apparu en réaction à la complication des règles de référencement, afin de pouvoir mieux positionner les sites référencés.

Complication nécessaire face à la nécessité de proposer une information de meilleure qualité et celle de sanctionner les abus liés à l’exploitation de l’algorithme des moteurs.

Comment bien se positionner sur Google en 2017 ?

SEO - Référencement naturel

Exigence de contenu de qualité & d’arborescence

Le SEO est avant tout une affaire de contenu : la communication avec les moteurs de recherche se fait par l’intermédiaire de mots-clés (et expressions-clés). Les moteurs de recherche jugent d’abord la pertinence d’une page à sa qualité d’expression autour d’un sujet

Il était alors facile de se positionner avec des pages archi-bourrées de mots-clés, utilisés dans des contenus sans aucun sens. Jusqu’en 2011 ! L’algorithme Panda sorti alors est le plus tonitruant : il sanctionne sévèrement les abus relevés dans des techniques de contenu auto-générés. Bien que les adeptes du spinning-content, de la récupération de flux traduits automatiquement et autres techniques de récupération de contenu aient pu développer d’autres armadas, les évolutions successives de ces algorithmes réduisent peu à peu toutes les options de contenu généré automatiquement. L’heure du contenu personnel, personnalisé et spécialisé est arrivée.

Désormais, pour être dans les clous, il faut « produire un contenu de qualité » nous dit Google. Mais cela seul est bien insuffisant, puisque tout le monde produit déjà ce genre de contenu. C’est dans les choix de champs lexicaux et sémantiques, d’organisation de l’arborescence que vous pourrez être vus comme spécialiste selon les moteurs de recherche, et donc être le plus visible parmi vos concurrents.

Exigence de reconnaissance de qualité : netlinking et SMO

Pourquoi Google est devenu LE moteur de recherche dans un marché pourtant déjà concurrentiel alors qu’il y est arrivé relativement tard (1998) ? Son secret : prendre en compte dans son algorithme les liens pour améliorer le positionnement des contenus. Les liens sont perçus comme un gage de confiance qu’envoie un site à un autre. D’une intention logique et noble, les plus audacieux se sont servis pour faire monter artificiellement des sites, en créant des réseaux complexes de sites générés automatiquement. Voilà pourquoi Google, en 2012, a lancé l’algorithme Penguin, dont le but était de chasser tout lien suspect : d’abord les ancres de lien trop optimisées, puis les liens depuis des sites à risque…

Si bien qu’en peu de temps, le lien est presque devenu l’ennemi : gare aux liens s’ils sont trop optimisés, anormalement nombreux, ou de « pas assez bonne qualité » selon Google, ils peuvent causer le déclassement immédiat d’un site, avec un recouvrement très difficile. Des référenceurs peu scrupuleux se servent même de cette « toxicité » des liens pour essayer de déclasser des sites concurrents de l’index des moteurs de recherche, ce qu’on appelle du negative SEO.

Un bon profil de liens, c’est d’abord :

  • Vérifier les liens envoyés vers notre site et s’assurer de la bonne santé, de la diversité des sources
  • Des liens envoyés par des sites sémantiquement proches, sinon quoi les liens sont moins bien évalués voire nuisibles.
  • Des ancres de liens diversifiées : il est anormal qu’un site ne soit lié que par des ancres très optimisées
  • Une création de liens continue, grâce aux mentions presse, aux références sur des forums, etc.

C’est à ce dernier stade que commence le vrai défi, peut-être le plus excitant et le plus vaste du consultant SEO : être imaginatif dans les sources de liens, sensibiliser les équipes de Relation Presse, envisager des partenariats…

Au netlinking s’est ajouté le SMO, abréviation de Social Media Optimization (Optimisation pour les Réseaux Sociaux). Actant de la croissance importante de tous ces réseaux où l’on construit un profil pour interagir avec des « amis » (Facebook), des « followers » (Twitter), des « relations professionnelles » (Linkedin, Viadeo…), des lecteurs (tumblr…), les moteurs de recherche comptabilisent progressivement les signaux envoyés vers votre site (J’aime, Retweets, etc.) et s’en sert pour compléter son algorithme de positionnement.

Si l’impact des réseaux sociaux demeure marginale, ils sont un élément incontournable de la stratégie de visibilité en ligne de votre site et de la création de liens, d’engagements et d’une communauté en ligne.

Exigence de respect des règles moteurs

Les moteurs de recherche, Google en tête, ne se limitent pas qu’à sanctionner les abus liés au contenu et au linking. Au fil des années, l’algorithme a connu de nombreux ajouts (un peu moins d’une centaine chaque jour, excusez du peu !) qui visent à sanctionner des abus tels que l’exact match domain (nom de domaine utilisant trop de mots-clés optimisés), les pop-ups interstitiels…

Au-delà des sanctions, ceux-ci ont également des exigences. Un index qui se base de plus en plus sur la version mobile des sites web, qui favorise les sites sécurisés avec le protocole SSL (https), les sites rapides au chargement (avec dernièrement l’Accelerated Mobile Pages, pour les sites de presse en particulier)… Tout cela fait écho aux modifications de comportement des internautes, de plus en plus exigeants quant à la rapidité du web, et de plus en plus mobiles.

Mais les moteurs de recherche ne sont pas affaire que de contrainte. Ils produisent aussi leurs propres outils pour permettre de positionner votre entreprise. Notamment pour les boutiques, l’optimisation Locale est au moins aussi cruciale que l’optimisation du site web. Les packs Locaux dans les résultats de recherche, les fiches Business sur Google My Business et Google Maps, sont autant d’outils pour développer sa visibilité sur les moteurs de recherche.

Exigence d’organisation technique

La technique est le premier pilier du référencement naturel. Un site au code trop chargé, qui réalise de trop nombreux appels serveur, avec des images trop lourdes, part avec un handicap dans le référencement. C’est d’autant plus dommage que ces facteurs sont autonomes et peuvent donc être améliorés sans « subjectivité ».

D’apparence monotone et très réglée, l’organisation technique prend un tout autre tournant lorsqu’il s’agit d’orienter l’exploration du robot des moteurs. Petite explication du fonctionnement des moteurs de recherche :

  • Un robot d’exploration (Googlebot, dans le cas de Google) est lancé sur un site.
  • Ce robot d’exploration a, pour chaque site, un « capital crawl« . Il s’agit de l’effort qu’il a à consacrer dans l’exploration des pages d’un site. Peu connu, il est a priori défini en nombre d’octets de données à télécharger (ce qui prend énormément de choses en compte : taille du code, téléchargement des images, appels serveur…) à l’intérieur d’un sous-domaine.
  • Pour parcourir les pages de ce site, il suivra les liens internes (menus, colonnes, liens dans le texte…)
  • Un lien externe enverra le robot sur le site lié où il pourra continuer son exploration de manière autonome
  • Bloqué dans une page, le robot d’exploration se téléporte aléatoirement dans une autre page du web
  • Le PageRank est un « score » délivré à une page qui détermine le « jus SEO » qu’elle reçoit et (donc) qu’elle peut transporter
  • Les liens internes et externes distribuent une partie de ce PageRank vers les pages-cibles
  • La valeur en PageRank d’une page sera alors définie après calcul de chaque interaction de cette façon
  • Note : pour découvrir un nouveau site, Google utilise majoritairement les liens externes et l’abonnement à ses services (ex : Search Console, Google Analytics…)

Il est donc primordial de réduire au maximum les contrariétés qui épuiseraient inutilement le capital crawl (ex : images trop lourdes, trop d’appel serveur, pas de mise en cache…) et utiliser le maillage interne et externe de façon intelligente pour signifier aux moteurs de recherche la plus grande importance de certaines pages par rapport à d’autres.

Au-delà de la tâche d’optimisation du temps de chargement des pages, le travail d’un consultant SEO est donc aussi de savoir guider le robot d’exploration du moteur.

Révisez vos bases SEO !

Mon petit dossier pour vous familiariser avec le référencement naturel

Qu’est-ce que le référencement naturel ?
Qu’est-ce qu’un consultant SEO ?
• Ma méthode d’audit SEO