LONGUE TRAÎNE :

Le principe de la longue traîne a été initié par Chris Anderson, rédacteur en chef de la revue américaine Wired. En 2004 il s’aperçoit, en analysant des sites marchands tels qu’Amazon, que 20% du chiffre d’affaires est constitué par un petit nombre de produits différents mais vendus à beaucoup d’exemplaires, et que les 80% restants du CA sont générés par un grand nombre de produits vendus en petite quantité.

Olivier Andrieu met en exergue dans ses recherches que le plus souvent, lorsque l’on regarde de plus près les statistiques d’un site web, le même schéma que celui découvert par Anderson apparaît, on peut remarquer qu’elles se divisent en 2 catégories distinctes. D’un côté, 20% du trafic des moteurs de recherche est constitué de courte traîne, c’est-à-dire que ce sont des mots-clés très utilisés sur les moteurs de recherche et pour lesquels le site est optimisé et bien positionné. Cette courte traîne représente un nombre relativement faible de mots-clés (quelques dizaines tout au plus), chacun d’eux produisant un fort trafic. Les 80% de trafic restants représentent donc la longue traîne ; des requêtes saisies peu souvent sur les moteurs de recherche pour trouver le site. Ceci représente un nombre important de mots-clés, chacun d’eux entraînant un trafic faible, mais leur somme globale représente la majorité du trafic.

Pour ce projet, nous décidons donc de mettre à profit ce constat pour pouvoir nous concentrer essentiellement sur la longue traîne, ce qui est en parfaite concordance avec le type de service que nous souhaitons fournir.

Depuis la création et le lancement de Google en 1998, il y a évidemment eu de nombreuses mises à jour et améliorations afin d’offrir une expérience toujours plus poussée et répondant aux besoins actuels et futurs des internautes. De plus, de nombreuses personnes utilisaient des techniques de référencement abusives, il a donc fallu mettre en place une solution permettant de contrôler et surveiller ces pratiques. Nous allons donc voir les algorithmes les plus importants, ceux qui ont marqué l’évolution de Google et de la manière de s’occuper du référencement de son site.

Pour encourager à la pratique de techniques approuvées par Google, ils ont eux-mêmes adressé des consignes aux webmasters, que l’on peut retrouver ici :https://support.google.com/webmasters/answer/35769?hl=fr

1 – Panda

L’algorithme Panda est un filtre de recherche ; introduit pour la première fois en février 2011, il pénalise le référencement des sites web dont le contenu est de faible qualité. Panda vise essentiellement à lutter contre les sites de contenu, créés uniquement pour le référencement et le spam.

L’algorithme Panda est mis à jour régulièrement pour permettre aux sites précédemment pénalisés de récupérer leur référencement après avoir amélioré la qualité de leur contenu, ou au contraire, pour pénaliser les sites qui ne respectent plus les directives de Google.

Lors de son premier déploiement, Panda a eu un impact majeur sur la configuration des résultats de recherche en altérant 12% des SERP aux Etats-Unis !

Après la mise à jour 4.2, la qualité du contenu est devenue un facteur de référencement et l’intégration de Panda à l’algorithme principal de Google a été confirmée en janvier 2016. Google n’annonce désormais donc plus les mises à jour de Panda : cet algorithme est constamment pris en compte pour définir le classement d’un site web dans les pages de résultats de recherche.

2- Pigeon

L’algorithme Pigeon fut déployé en juillet 2014, aux États-Unis et en juin 2015 à l’international. Cet algorithme favorise les résultats de recherche locaux pour apporter des solutions plus précises aux requêtes des utilisateurs. Les modifications apportées par cet algorithme sont visibles sur Google et Google Maps.

L’algorithme Pigeon a eu surtout un impact sur les entreprises et business locaux tels que les restaurants, bars ou cabinets de médecins…

3 – Opossum

Mise en place en septembre 2016, il impacte les résultats locaux du moteur de recherche et plus précisément dans le « pack local ». Lors d’une recherche sur son moteur de recherche, il affichera une carte avec 3 propositions. Opossum est également présent dans son service de cartographie Google Maps, où il va afficher l’ensemble des résultats disponibles.

Il n’y a pas de réelle pénalité, mais plus un impact dans le classement des résultats. Son action est basée sur plusieurs critères :

  • L’écriture des requêtes : L’algorithme réagit à l’expression « élément de recherche » + ville. Les autres types de recherches ne semblent pas impactés les résultats naturels, appelés aussi résultats organiques. L’ordre des mots clefs est très important dans l’affichage des résultats.
  • La zone de recherche étendue : Même si l’internaute effectue une recherche ciblée sur une ville, opossum va lui proposer des résultats en dehors de la ville, puisqu’il estime que l’internaute trouvera ce qu’il recherche, même s’il fait quelques kilomètres de plus, dans la zone limitrophe.
  • Le filtre d’activités sur une même adresse postale : Si pour une même adresse, il y a des activités similaires comme des médecins, des avocats ou infirmières. Opossum n’affichera qu’un seul résultat.

La bonne utilisation avec une optimisation réfléchie des fiches d’établissement Google Mybusiness, et de ses services associés, est donc indispensable pour être visible, lorsqu’un internaute effectue une recherche sur un produit ou un service que vous proposez.

4 – Mobile Friendly – Compatibilité mobile

Le 21 avril 2015, Google procèdé au déploiement de son algorithme Mobile Friendly qui privilégie le référencement des sites web adaptés au mobile.

Cet algorithme a eu un impact encore plus important que ceux de Penguin ou Panda et il fut même renommé « mobilegeddon » par certains experts SEO : l’Armageddon de la compatibilité mobile.

Cet algorithme a été déployé en temps réel et page par page : un site pouvait donc conserver un bon référencement global, même si certaines de ses pages n’étaient pas adaptées au format mobile.

Depuis 2015, la compatibilité mobile est une priorité pour Google et un facteur de référencement très important. D’ailleurs, en novembre 2016, Google a annoncé qu’il lancerait son Mobile-first index dans le courant de l’année 2017.

Qu’est-ce que Mobile-first index ? Jusqu’à présent, Google établissait le référencement des sites web en fonction de leur version desktop. Mais le comportement des utilisateurs change et ceux-ci passent plus de temps à surfer sur internet sur un mobile que sur un ordinateur. Google a donc décidé de prendre en compte la version mobile d’un site web, au détriment de la version bureau afin d’effectuer son référencement.

Si votre site web n’est pas adapté au mobile, il est donc grand temps de procéder à certains changements. Vérifiez la compatibilité mobile de votre site internet en procédant à un test gratuit sur Website Grader.