Étude de cas : Comment avons nous optimisé notre budget crawl et doublé notre visibilité grâce à l’analyse de logs ? – Dialekta

Stratégie SEO

Planifiez une rencontre
PROBLÉMATIQUE
OBJECTIFS
SOLUTIONS
RÉSULTATS

Description

L’agence de marketing de performance Dialekta, spécialisée dans le référencement naturel et l’innovation, cherche constamment à optimiser son positionnement sur les moteurs de recherche via le SEO et à découvrir de nouvelles méthodes de travail pour y arriver.

PROBLÉMATIQUE : Améliorer le référencement grâce à l’analyse de logs

Après fait toutes les optimisations techniques et de contenu de base sur le site de l’agence, nos équipes étaient à la recherche de nouvelles problématiques à résoudre pour continuer à améliorer le référencement et la visibilité du site internet auprès des moteurs de recherches.
Nous utilisons l’analyse de logs depuis longtemps et nous avons décidé de creuser les données de notre site pour mieux comprendre l’expérience des “robots crawler » et l’améliorer. De ce fait, cela nous permettra d’optimiser le temps passé par les robots de Google sur le site de manière à ce qu’ils se concentrent uniquement sur les pages les plus stratégiques. Nous parlons alors d’optimisation du budget de crawl (ou crawl budget).

En définition, l’analyse de logs consiste à examiner les fichiers de logs (une sorte d’historique) d’un serveur web. Cela permet de savoir quelles pages sont explorées par les moteurs de recherche et quelle est la réponse du site par rapport à la requête du robot. Une fois que l’on connaît ces informations, l’objectif est d’optimiser les passages suivants des robots pour qu’ils explorent plus facilement et régulièrement toutes les pages du site ou au moins les pages très importantes et plus du tout ou beaucoup moins les pages sans ou avec peu d’intérêt.

OBJECTIFS : Détecter et corriger les erreurs pour améliorer la visibilité sur les moteurs de recherche

Notre agence de référencement naturel à Paris s’est chargée de remplir ces missions :

  1. Détecter des erreurs que l’on ne détecte pas avec les méthodes « traditionnelles ».

  2. Corriger ces erreurs.

  3. Analyser l’impact sur la visibilité du site sur les moteurs de recherches.

SOLUTIONS : Des redirections pour améliorer le budget crawl

Il a été rapidement décidé de réaliser un suivi mensuel des logs du site en analysant particulièrement ceux liés aux bots. Nous avons détecté deux types d’erreur :

  • Premièrement, une page qui n’était pas importante et sur laquelle les robots passaient énormément de temps (c’était la page ayant le plus d’événements liés aux robots). Nous avons décidé de bloquer cette page afin de la rendre “invisible” aux yeux des robots et ainsi de leur permettre de passer plus de temps sur les autres pages.
  • Deuxièmement, des pages répondant en erreur sur lesquelles les robots passaient régulièrement et perdaient du temps alors que nous ne détections pas ces pages avec des méthodes d’analyse classique comme un crawl. Pour pallier cette erreur, nous avons mis en place en juin une première vague de redirection sur ces pages pour que les robots ne perdent plus de temps dessus.

Immédiatement, suite à ces redirections, nous avons pu observer une baisse du nombre de pages 4XX explorées par les bots et tous les utilisateurs. Dans le même temps, nous pouvons également observer une augmentation des impressions du site et du nombre de pages explorées par les robots par jour.

RÉSULTATS : des chiffres en progès grâce à l’analyse de logs

Voici ce que nous avons obtenu au bout d’un an d’analyse de logs :

  • Baisse de 52% des URL répondant en 4XX pour les bots
  • Augmentation de 11% d’URL uniques/jour vues par les bots
  • Augmentation de +132% des impressions

Notre analyse de logs a porté ses fruits comme nous l’attendions. Nous avons réussi à améliorer le budget de crawl et l’expérience des robots et ainsi améliorer les résultats de notre site sur les moteurs de recherche. Nos experts continueront de suivre les résultats de l’analyse de logs sur le long terme et de mettre en place des ajustements lorsqu’ils seront nécessaires.

Comme nos observations et les résultats de notre étude de cas le montrent, il peut être utile de réaliser une analyse de logs si vous cherchez à mieux comprendre comment les robots crawlers de Google explorent votre site et à améliorer sa visibilité sur les moteurs de recherche.
Cependant, il existe également d’autres méthodes pour améliorer le référencement naturel de votre site. Nos équipes d’experts SEO peuvent vous aider à optimiser les performances de votre site grâce à des techniques avancées en matière de référencement naturel. Contactez-les, dès aujourd’hui, pour découvrir comment l’analyse de logs peut booster votre référencement et votre trafic !

Contactez-nous !

BLOGUE

Lisez nos articles et abonnez-vous à notre infolettre pour en apprendre plus sur le marketing de performance et sur innovations dans le monde des médias.

Consultez nos publications

CARRIÈRES

Vous vous passionnez pour les médias et le marketing de performance ? Venez atteindre votre plein potentiel au sein de notre équipe.

Consultez nos postes disponibles

Recevez les dernières tendances en média et marketing de performance et les précieux conseils de nos experts directement dans votre boîte courriel.