Blogue

SEO

assistant vocal google

L’importance du SEO pour se positionner sur les assistants vocaux

« Ok Google, quelle sera la météo aujourd’hui ? ». Qui pourrait se passer de l’aide des assistants vocaux ?

Cette phrase, que vous avez sans doute entendue, ou même prononcée, plusieurs fois appartenait pourtant il y a quelques années à la science-fiction pure. Pourtant, les assistants de recherche vocale sont de plus en plus communs dans notre quotidien.

Alexa, Google Assistant, Siri : la recherche vocale est une véritable mine d’or. Jumelée avec l’expansion rapide du secteur des téléphones intelligents, elle représente une opportunité incontournable pour les départements marketing qui savent l’intégrer à leur stratégie.

Les assistants vocaux : un marché en pleine expansion

La recherche vocale constitue l’un des domaines technologiques qui croissent le plus rapidement. Pourtant, rien ne laissait présager à l’origine que les assistants vocaux deviendraient partie intégrante de nos habitudes quotidiennes.

C’est d’abord Apple qui a lancé le bal, en proposant son assistante vocale, Siri, sur son tout nouvel iPhone 4S. L’offre était révolutionnaire : une intelligence artificielle pouvant vous aider dans vos tâches et vos questionnements. Et la compétition a tout de suite compris cet aspect. 

Rapidement, le géant de la vente en ligne Amazon lançait Alexa, son propre assistant vocal. C’était une autre petite révolution. En effet, plutôt que d’être lié à un téléphone intelligent, Alexa possède son propre appareil, doublé d’un haut-parleur. C’était donc l’une des premières incursions de la recherche vocale dans le domicile de ses utilisateurs.

Google a, à son tour, lancé son Google Assistant en 2016, de même que son Google Home (son équivalent au Alexa) en 2017. Amazon et Google ont d’ailleurs d’ores et déjà surpassé Apple et sont maintenant les deux grands leaders de ce marché en pleine expansion.

En plein envol, le marché des assistants de recherche vocale n’est pas sur le point de faire faillite. Alors que le monde numérique est de plus en plus intégré avec le monde physique, on prévoit qu’il y aura 3 fois plus d’assistants vocaux vendus en 2025 qu’en 2020. En effet, d’ici 5 ans, près de 75% des ménages américains en possèderont au moins un.

La position 0, garante du succès sur la recherche vocale

La clé du succès pour être cité sur les assistants vocaux repose avant tout sur une optimisation du référencement organique en vue de décrocher la  position 0. Celle-ci est aussi connue sous le nom de featured snippet. 

Vous avez sans doute déjà aperçu un résultat en position 0. Il s’agit généralement d’un encadré se classant au sommet des résultats d’une recherche, avant même les résultats payants. Dans le cas des assistants vocaux, la position 0 est celle qui est énoncée à voix haute par l’assistant, en réponse à la recherche de l’utilisateur.

featured snippet position 0

 

L’intérêt de la position 0 est qu’elle offre une visibilité incomparable en se positionnant en première place sur les moteurs de recherche, au-dessus des résultats organiques et des annonces payantes. Elle est l’objectif qu’une bonne optimisation SEO permet d’atteindre.

La position 0 a donc le double avantage d’être celle qui sera priorisée par l’assistant vocal ainsi que d’être le premier résultat d’une recherche Google. Et évidemment, comme il n’y a qu’une seule position 0, la lutte pour l’occuper fait rage. Il vous faut donc savoir comment positionner son contenu sur les assistants vocaux pour en profiter.

Comment se positionner sur les assistants vocaux ?

Le positionnement sur les assistants vocaux ressemble à celui sur les moteurs de recherche. Pour obtenir des résultats intéressants pour votre marque, il convient avant tout d’optimiser votre référencement organique. Cela peut être accompli en travaillant 3 aspects complémentaires du SEO de votre site.

Optimiser le SEO technique

L’optimisation du SEO technique concerne, comme son nom l’indique, le volet technique d’un site Web. Il s’agit du volet le plus important aux yeux des robots d’indexation des moteurs de recherches de Google. Il consiste à optimiser la structure du site web. Ces robots ou « crawlers » s’attardent principalement aux critères suivant: 

  • La rapidité du site Web
  • L’absence d’erreurs sur le site Web
  • L’arborescence et la structure des URLs
  • L’optimisation des fichiers robots.txt et sitemap.xml
  • L’optimisation des balises

Un site dont l’aspect technique est mal optimisé ne se classera donc pas très bien dans les résultats d’une recherche, qu’elle soit vocale ou via les moteurs de recherche.

Optimiser le SEO de contenu

L’optimisation du contenu d’un site Web est ce que l’on associe le plus souvent au SEO. Comme ce sont les robots d’indexation qui font le travail de recherche pour les utilisateurs, il est primordial d’optimiser le contenu d’un site de sorte qu’ils le détectent. Cette optimisation implique quelques principes clés.

  • La structure du contenu

Il faut s’assurer que chaque page ne réponde qu’à un seul objectif (ne traîte que d’un seul thème) et que le contenu du site soit correctement structuré pour être facilement interprété par les robots d’indexation. Il faut donc bien hiérarchiser le contenu des pages en fonction de leurs titres (H1), sous-titres (H2) et sous-sous-titres (H3 et plus) selon un ordre logique.

  • L’intégration de mots-clés

Les mots-clés sont un des éléments les plus importants de l’indexation. Lorsqu’un utilisateur fait une recherche, le moteur lui affichera les résultats qui correspondent le mieux à sa requête. Pour ce faire, il faut intégrer des mots-clés qui correspondent aux recherches des utilisateurs, mais également à l’objectif  de la page.

  • La pertinence du contenu

Pour qu’une page soit bien indexée par les moteurs de recherche, autant traditionnels que vocaux, il faut qu’elle réponde à un besoin. Il faut donc s’assurer que le contenu qui a été produit réponde à une question d’un utilisateur, qu’il sera véritablement recherché.

Optimiser le SEO vocal

Alors que les deux points précédents ne sont pas exclusifs à l’optimisation SEO pour la recherche vocale, celle-ci impose une nouvelle contrainte. En effet, les assistants vocaux proposent d’abord les sites Web optimisés pour la recherche vocale. 

Cette optimisation concerne premièrement la nature du contenu. Celui-ci doit adopter une forme plus interrogative, étant donné que les recherches vocales sont très souvent faites sous forme de questionnements. De plus, la réponse qu’il donne doit être claire et succincte. Elle doit pouvoir rapidement répondre aux questions « qui », « quoi », « quand », etc.

La section FAQ d’un site Web est l’endroit idéal pour rédiger du contenu de cette nature. Il est facile d’y ajouter des requêtes interrogatives et mettre en place des réponses bien structurées.

Une expertise en référencement pour profiter de la recherche vocale

Comme les assistants vocaux sont en pleine expansion, c’est le meilleur moment pour s’y intéresser en commençant par optimiser son référencement organique.

Si vous avez besoin d’aide dans votre stratégie SEO, contactez notre agence SEO à Montréal. L’équipe de Dialekta vous offre en effet l’expertise nécessaire pour vous aider à tirer votre épingle du jeu. 

 

Par Geoffrey Perrochon

Geoffrey Perrochon chargé de projets seoRigoureux et méthodique, Geoffrey a rapidement développé un intérêt pour la gestion de projets. Mesurer, analyser, améliorer, contrôler et consolider c’est ce qu’il aime faire au quotidien. Pas étonnant qu’Excel soit son outil de prédilection. Après 6 ans d’expérience en marketing côté client, il se spécialise dans le numérique et rejoint Dialekta pour y assurer la gestion des projets média et SEO. Toujours disponible et de bonne humeur, Geoffrey sait établir une relation de confiance essentielle pour avancer sereinement.

 

brainstorm

Comment réduire notre dépendance au référencement payant ?

De nombreuses entreprises se tournent vers le référencement payant afin d’obtenir rapidement une visibilité sur le web. Cette méthode permet de se positionner rapidement sur la première page des résultats Google et de générer des résultats mesurables. Toutefois, le référencement payant peut devenir coûteux et on peut rapidement en devenir dépendant si on y place tous nos efforts.

C’est pourquoi il est important d’avoir une bonne stratégie d’acquisition pour générer du trafic sur son site grâce au owned et earned media. Le owned media représente les canaux qui nous appartiennent, tels que notre blogue, site web ou infolettre. Le earned media fait référence à la visibilité que nous avons acquis grâce au bouche à oreille, comme un partage de notre contenu sur les réseaux sociaux ou une référence sur un site d’avis. Travailler le owned et le earned media n’est pas une tâche facile mais elle peut être très payante à long terme. Il faudra simplement s’armer d’un peu plus de patience !

Voici quelques étapes qui vous aideront à mettre en place une stratégie d’acquisition efficace sans avoir à investir dans le référencement payant : 

1. Déterminez vos objectifs

Posez vous les bonnes questions. Qu’est-ce qui apporte le plus de valeur à votre entreprise et quelles sont les tactiques qui vous permettront d’y arriver ? Évitez de simplement vouloir générer un grand volume de trafic et pensez plutôt en termes de  trafic de qualité en identifiant les actions sur votre site qui vous permettront de séparer les utilisateurs de valeur des autres. Par exemple, le trafic provenant de votre section carrière n’a surement pas la même valeur que le trafic provenant de vos pages transactionnelles. En distinguant cela, vous serez en meilleure position pour analyser la performance des différents canaux d’acquisition. 

2. Optimisez le trafic provenant des différents canaux d’acquisition

En analysant la performance de vos différents canaux, déterminez ceux qui génèrent du trafic de qualité sur votre site web. Pour éviter de vous perdre, concentrez vos efforts là où vous estimez un meilleur retour sur investissement. Tout d’abord, tentez d’augmenter le volume de trafic des canaux qui convertissent le plus. Puis, améliorez le taux de conversion des canaux qui convertissent moins bien. 

Trafic organique

Prenez connaissance tout d’abord de votre performance organique. Vous pouvez facilement identifier des pistes d’amélioration avec ces outils d’audits SEO (search engine optimization): l’analyseur SEO de Neil Patel et SEOptimer

  • Assurez vous d’être bien référencé organiquement (SEO) sur les mots-clés qui sont le plus important pour votre entreprise et ayez une bonne stratégie de contenu qui crée de la valeur autant pour les utilisateurs que pour votre entreprise. 
  • Concentrez vous sur les mots-clés qui performent bien en référencement payant mais dont le coût par clic (CPC) est plutôt élevé.  
  • N’oubliez pas de surveiller les mises à jour de Google pour évitez de perdre le référencement organique qui vous a aidé jusqu’à maintenant. 

Courriel

En règle générale, le trafic qui devrait être le plus qualifié est celui provenant de votre infolettre. Effectivement, ce sont les utilisateurs avec qui vous avez déjà établi une relation. Une bonne stratégie de courriel vous permettra d’avoir un très bon retour sur investissement. 

  • Si le taux de conversion est haut mais que vous avez peu de trafic, pensez à augmenter votre base de donnée. 
  • Si le taux de conversion de ce canal est bas, améliorez votre stratégie de courriel: créez des courriels qui incitent à l’action, ajoutez un call-to-action clair dans le courriel et redirigez sur des pages de destinations qui vous permettront de faire convertir ces clients. 

Referral

Le trafic referral comprend tous les visiteurs arrivés sur un site web depuis un lien apparaissant sur un autre site. Afin de développer une stratégie de référencement efficace, il est important de déterminer vos partenaires d’affaires qui pourraient être utilisés comme site référent. Attention à bien les choisir car l’autorité d’un site est un facteur important sur le positionnement de vos pages.

Réseaux Sociaux

Le trafic provenant de vos efforts sur les réseaux sociaux peut autant aider vos stratégies de owned media que de earned media. Voici quelques recommandations pour commencer:

  • Optimisez vos profils et utilisez des appels à l’action pour inciter les utilisateurs à se rendre sur votre site. 
  • Créez du contenu facilement partageable pour favoriser la viralité de celui-ci.
  • Interagissez avec vos fans et créez un sentiment de communauté. Vous aurez de fiers défenseurs de votre marque et aurez de loyaux clients. 

3. Assurez-vous d’avoir des bonnes pages de destination

Une bonne stratégie d’acquisition ne peut se faire sans l’optimisation des pages de destinations, cruciales pour créer une bonne première impression et stimuler les conversions. 

Lorsque vous choisissez vers quelle page de votre site vous redirigez les utilisateurs, assurez-vous que ces derniers atterrissent sur une page qui réponde directement à leurs attentes et qui les incitent à l’action. Évitez qu’ils aient à chercher sur votre site web, sans quoi vous risquez fortement de les perdre.  Si vous n’avez pas de page de destination qui correspond à vos besoins, construisez une landing page spécialement pour vos efforts d’acquisition. 

4. Mesurez vos efforts

Une des étapes les plus importants est la mesure de vos efforts. Dotez-vous d’une stratégie de mesure numérique pour déterminer quelles sont les tactiques qui créent le plus de valeur pour votre entreprise. Mettez sur pied un tableau de bord avec Google Data Studio: vous pourrez ainsi facilement visualiser vos performances et optimiser votre stratégie. 

Si vous avez besoin d’aide avec votre stratégie de marketing organique, n’hésitez-pas à contacter nos experts SEO.

Par Laura Bélanger

laura belangerLaura travaille en marketing numérique depuis plus de 5 ans. En tant que stratège média numérique, elle supporte ses clients dans leur croissance sans jamais perdre de vue leurs objectifs marketing. Passionné par les chiffres, elle est spécialisée dans les comptes à la conversion et le commerce électronique. 

 

page experience seo algorithme de recherche google

UX et SEO: de nouveaux critères de classement dans l’algorithme de Google

Google vient d’annoncer le déploiement, courant 2021, d’une mise à jour importante de son algorithme de classement. Comme vous le savez déjà, Google privilégie depuis quelques années les sites qui priorisent l’expérience utilisateur. Parmi ses critères de classement, on retrouve la rapidité de chargement des pages et l’ergonomie mobile. Sous peu, nous y retrouverons aussi la convivialité des pages. Quels sont les signaux qui entrent en compte et comment s’y préparer? Nos experts SEO à Montréal font le point. 

Que signifie la convivialité des pages? 

D’après Google, “la convivialité d’une page (Page experience) évalue la façon dont les utilisateurs perçoivent leur interaction avec une page web”.

En d’autres mots, cette mise à jour permet d’assurer que les sites classés en haut des pages de recherche créent une expérience qui convient aux utilisateurs .

Si l’évaluation de l’expérience utilisateur était déjà prise en compte dans les critères de classement, Google semble vouloir monter la barre d’un cran en prenant en compte de nouveaux signaux.

Google a en effet annoncé que l’équipe Chrome était parvenue à mesurer un ensemble de métriques du “monde réel” centrées sur l’utilisateur et regroupées sous le terme Signaux Web essentiels. Ces signaux, combinés à ceux existants permettront de donner une image globale de la qualité d’une page Web sur l’expérience utilisateur.

Que sont les Signaux Web essentiels (Core Web Vitals)? 

La future mise à jour intégrera donc les 3 nouveaux signaux issus du rapport “Signaux Web essentiels”  qui sont la vitesse de chargement, la réactivité et la stabilité visuelle. 

Core-Web-Vitals-Graphique-Page-Experience

Chaque signal est quantifiable et Google nous renseigne sur le score à atteindre afin d’obtenir la meilleure expérience utilisateur et donc d’obtenir un meilleur classement sur son moteur de recherche. 

google-core-web-vitals-lcp-fid-cls

La vitesse de chargement – Largest Contentful Paint (LCP) 

La métrique LCP correspond au temps qui s’écoule avant que le contenu principal d’une page soit visible pour l’utilisateur. C’est une amélioration importante de la métrique FCP (First Contentful Paint) qui ne capturait que le tout début de l’expérience de chargement. Or, nous le savons, si une page affiche un écran de démarrage ou un indicateur de chargement, ce moment n’est pas très pertinent pour l’utilisateur. Google recommande donc d’obtenir un score LCP inférieur à 2,5 secondes.

L’interactivité – First Input Delay (FID) 

La métrique FID intègre une notion intéressante puisqu’elle permet de mesurer le niveau de frustration d’un utilisateur. Dans les faits, la métrique FID calcule le délai entre l’instant où l’utilisateur interagit avec la page (clic sur un lien, clic sur un bouton, interaction JavaScript) et le moment où le navigateur est réellement capable de répondre à cette sollicitation. Google recommande un score FID inférieur à 100 millisecondes.

La stabilité visuelle – Cumulative Layout Shift (CLS) 

Pour finir, Google prendra en considération la métrique CLS, qui évalue la stabilité du contenu lors de son chargement. Cette métrique a pour but d’éviter des clics accidentels sur un mauvais bouton lorsque le contenu se charge progressivement et que les éléments d’une page se déplacent. Cet indicateur doit être inférieur à  0.1 pour garantir la meilleure expérience possible.

 

Quels autres facteurs sont pris en compte? 

En complément des signaux issus des Signaux Web essentiels, d’autres critères existants sont pris en considération par l’algorithme de Google dans l’évaluation de l’expérience utilisateur :

  • L’ergonomie mobile : L’utilisation des appareils mobiles pour accéder à Internet étant en croissance, Google privilégie les sites adaptés aux mobiles.
  • La navigation sécurisée : Google identifie les problèmes de navigation sécurisée dont la présence de logiciels malveillants.
  • Le protocole de sécurité HTTPS : Google reconnaît comme fiables les sites en HTTPS, ce protocole garantissant la confidentialité des données et le certificat d’authentification. Google pénalise les sites qui ne sont pas encore passés au protocole sécurisé.
  • Les consignes sur les interstitiels intrusifs : Google souhaite, comme tout utilisateur, que l’information recherchée soit immédiatement disponible à même le site. Aussi, il pénalise les sites dont la présence de pop-ups rendent difficile l’accès au contenu.

Comment se préparer à cette mise à jour? 

Si la mise à jour de l’algorithme de classement de Google n’est prévue que pour 2021, vous pouvez dès à présent commencer à analyser et optimiser votre site afin d’être prêt le jour J et profiter de cette mise à jour pour propulser votre site en augmentant sa visibilité.

Mieux vaut commencer ce travail d’optimisation le plus rapidement possible dans la mesure où il est fort probable que l’algorithme prenne en considération chaque page de façon individuelle plutôt que le site web dans son ensemble. 

Voici quelques recommandations pour commencer à optimiser l’expérience utilisateur dès aujourd’hui:

  • Réduire le temps de chargement de votre site web. Voici un outil qui vous permet d’évaluer la vitesse de votre site et vous offre des pistes d’optimisations.
  • Assurez-vous que votre site n’a aucune page brisée (error 404). Des outils tels que Google Search Console peuvent vous aider à les identifier.
  • Évaluer la convivialité de vos pages grâce à des heatmaps. Certains outils comme Crazyegg ou Hotjar pourront vous aider à analyser l’interaction des utilisateurs sur votre site.

Conclusion

L’expérience utilisateur va devenir de plus en plus importante dans le classement des sites web sur les pages de recherche Google. Avec l’annonce précoce de cette mise à jour, vous avez le temps de vous préparer et régler les problèmes existants sur votre site web, alors ne perdez pas de temps.

Vous ne savez pas par où commencer ou vous avez besoin d’aide? Notre équipe peut vous accompagner dans l’optimisation de votre site web. Contactez-nous pour évaluer vos besoins.


Par Geoffrey Perrochon 

Geoffrey Perrochon chargé de projets seo

Rigoureux et méthodique, Geoffrey a rapidement développé un intérêt pour la gestion de projets. Mesurer, analyser, améliorer, contrôler et consolider c’est ce qu’il aime faire au quotidien. Pas étonnant qu’Excel soit son outil de prédilection. Après 6 ans d’expérience en marketing côté client, il se spécialise dans le numérique et rejoint Dialekta pour y assurer la gestion des projets média et SEO. Toujours disponible et de bonne humeur, Geoffrey sait établir une relation de confiance essentielle pour avancer sereinement.


Sources:
https://webmasters.googleblog.com/2020/05/evaluating-page-experience.html
https://web.dev/vitals/#core-web-vitals

3 conseils essentiels pour optimiser le référencement en 2019

Le référencement en ligne est un aspect à la fois complexe et subtil du marketing numérique, car il englobe de nombreux facteurs allant du contenu à la facilité d’utilisation d’un site Web. D’autre part,les moteurs de recherche actualisent constamment leurs algorithmes à titre d’exemple, selon Moz, Google a actualisé son algorithme 3 234 fois en 2018 seulement, ce qui équivaut en moyenne à 9 modifications par jour. Si la plupart de ces modifications sont habituellement marginales, certaines sont des modifications en profondeur qui ont un fort impact sur le référencement (par exemple, la mise à jour de l’algorithme de base de juin 2019).

Nous vous présentons ici trois conseils essentiels de référencement à long terme, peu sensibles aux changements algorithmiques, qui devraient vous permettre de réduire votre dépendance à l’achat de mots-clés sur Google Adwords et Bing Ads.

Conseil no 1 – Mettre l’accent sur le contenu accrocheur et de qualité supérieure

Ce conseil peut sembler évident, mais nombre d’organisations oublient qu’une stratégie durable de référencement s’appuie sur la création de contenu de qualité

En effet, Google accorde de l’importance au contenu bien rédigé s’appuyant sur des sources adéquates. Le géant pénalise les sites comportant le contenu médiocre, par exemple contenant des fautes d’orthographe ou des liens rompus.

Armez-vous donc d’un papier et d’un crayon et notez cinq thèmes fondamentaux qui décrivent votre entreprise et ses activités. Ces piliers thématiques qui vous aideront à choisir des mots-clés pertinents pour votre auditoire et vos objectifs. 
Plusieurs outils (gratuits ou payants) peuvent  faciliter votre recherche de mots-clés, par exemple, UbersuggestWordtrackerMoz Keyword Explorer ou SEMrush. Vous trouverez ci-dessous une illustration de notre méthode de recherche de mots-clés au moyen du Keyword Magic Tool de SEMrush. Armés de ces mots-clés, travaillez avec votre stratège en référencement afin de déterminer ceux qui sont les plus pertinents pour votre entreprise. Vous n’oublierez pas de comparer aussi le volume de recherche avec celui de la concurrence. Vous pourrez alors intégrer ces mots-clés à votre contenu statique ou au contenu de vos billets de blogue à venir, ce qui augmentera votre visibilité dans les moteurs de recherche.

Conseil no 2 – Optimiser votre site Web pour les appareils mobiles

L’optimisation de votre site Web pour les appareils mobiles est essentielle. Par exemple, 25,5 millions de Canadiens, soit 70 de la population, se servent soit d’un téléphone mobile ou d’une tablette pour accéder à internet. Cette proportion devrait augmenter à 80 % d’ici un an. En outre, 52,2 % de l’achalandage total du site Web en 2018 provenait d’appareils mobiles, ce qui témoigne d’une tendance à la croissance soutenue et constante.

De plus, les robots de Google indexent d’abord la version mobile au lieu de la version de bureau. En jargon de référencement, on appelle ceci l’Indexation mobile-first (priorité au mobile). Ainsi, un site Web adapté au mobile obtiendra un meilleur référencement. Autrement dit, les sites dont l’affichage n’est pas adapté aux appareils mobiles sont pénalisés par les moteurs de recherche.

Plusieurs outils gratuits vous permettent de vérifier si votre site Web est adapté aux appareils mobiles, dont Google Search Console

Prenons par exemple une marque que nous connaissons tous, soit la SAQ, le distributeur exclusif de produits alcoolisés du Québec. Dans l’image ci-dessus, vous pouvez voir le rapport indiquant que le site n’est pas adapté aux mobiles. Google génère aussi une liste de recommandations, que vous pourrez te mettre en œuvre avec un spécialiste du référencement.

Si vous découvrez que votre site n’est pas adapté aux mobiles, pas de panique : un spécialiste pourra vous aider à identifier les points fondamentaux à corriger, et à travailler avec un développeur Web pour adapter votre site aux appareils mobiles. 

Conseil no 3 – Retirer le code non pertinent

Le code non pertinent a une incidence négative directe sur les classements de référencement. En effet, il faut plus de temps aux robots de moteurs de recherche pour parcourir un site Web qui contient du code inutile. Cela signifie que le moteur ne sera pas en mesure d’indexer entièrement votre site, ce qui aura un effet négatif sur votre classement. Pour vérifier si votre site Web contient du code inutile vous pouvez avoir recours à un outil gratuit tel que FreeFormater ou HTMLHint, qui procédera aux vérifications suivantes :

  • Les balises HTML manquantes ou déséquilibrées

  • Les balises HTML manquantes 

  • Les balises HTML déséquilibrées

  • Les ID en double 

  • Les attributs non valides

  • Les caractères errants 

Vous pourrez transmettre les résultats à votre développeur Web ou tenter d’apporter vous-même certaines corrections dans le système principal. CDans le cas des sites qui utilisent certaines plateformes telles que WixSquarespace ou Weebly, la tâche pourrait être plus complexe étant donné qu’il est plus difficile de modifier le code source dans ces plateformes par rapport à un système de gestion de contenu (CMS) type WordPress ou personnalisé. 

laptop with a coding screen

Le recours à un « vérificateur de rapport texte-code » gratuit constitue une autre astuce. Plus le rapport est élevé, plus votre site obtiendra vraisemblablement un bon classement. Par ailleurs, si votre rapport est déséquilibré, vous pouvez avoir recours à un outil tel que Minify Code pour réduire les lignes de code gonflées afin de soutenir votre stratégie de référencement. 

Ces trois conseils fondamentaux auront assurément une incidence positive sur votre référencement. Gardez à l’esprit qu’il s’agit d’une démarche continue et de longue haleine. Vous devriez constater un impact direct sur votre position dans les moteurs de recherche, ainsi qu’une augmentation de la qualité du trafic, lesquels devraient réduire vos besoins d’achats média sur Google Adwords et Bing. 

S’il y a un sujet en particulier que vous aimeriez que notre agence SEO aborde dans un prochain billet, n’hésitez pas à nous écrire.  

Vous aimeriez lire également

 
Nouvelles sur la dernière mise à jour d’algorithme de Google
 
SEO + UX = Search eXperience Optimization (SXO)
 
Assistant vocal : Pourquoi s’y mettre maintenant?
3_critical_tips_to_boost_your_seo_efforts_in_2019_feature_image.jpg

Nouvelles sur la dernière mise à jour d’algorithme de Google

Si vous êtes un webmaster ou un professionnel du marketing numérique, il est essentiel de noter que Google a mis à jour son algorithme principal à la fin de la semaine dernière. Ce changement sans précédent a eu un impact majeur – à la fois positif et négatif – sur un certain nombre de sites Web de haut rang.

Comment et pourquoi ces sites ont-ils été affectés? Et comment observer les meilleures pratiques de référencement pour mieux être positionné sur Google? Nous allons tout décomposer dans cet article.

Comprendre l’algorithme

Avant de plonger dans les détails, assurons-nous de comprendre tous les principes de base. Google est le premier moteur de recherche au monde et 40 000 recherches sont effectuées chaque seconde, ce qui équivaut à près de 1.2 milliards de requêtes par an.

Les moteurs de recherche ont radicalement changé au cours de la dernière décennie et les membres du public attendent des réponses concises et pertinentes à leurs questions. Ces demandes se sont traditionnellement reflétées dans les mises à jour des algorithmes de Google, qui visent à terme à améliorer l’expérience utilisateur.

Historiquement, le géant des moteurs de recherche apporte plusieurs centaines de modifications à l’algorithme chaque année, ce qui a un impact mineur sur la majorité des sites Web. Mais occasionnellement, une mise à jour majeure est mise en œuvre, ce qui influence un plus grand nombre de sites Web.

La mise à jour de l’algorithme de base de juin 2019

Cela nous amène au changement de la semaine dernière qui a été surnommé familièrement «The June 2019 Core Algorithm Update». Lors de son déploiement initial le 3 juin, les experts en référencement ont constaté peu ou pas de changements dans les facteurs de classement. Après 24 heures, la mise à jour a eu des répercussions sur plusieurs sites, dont le Daily Mail, l’un des tabloïds les plus populaires en Grande-Bretagne.

Mais quelle est la différence entre une mise à jour principale et les termes précédents tels que Panda, Penguin et Hummingbird? Ces derniers termes désignent des mises à jour d’algorithmes ciblant des problèmes spécifiques. Par exemple, l’algorithme Panda a été conçu spécifiquement pour donner la priorité aux sites de haute qualité par rapport à ceux qualifiés d ‘«content farmer». Il s’agit de sites qui dupliquent de grandes quantités de mots clés et de contenu pour simplement se classer plus haut. La mise à jour principale est différente, car il s’agit d’un vaste changement qui a un impact général plutôt qu’un objectif ciblé.

Filtrer la qualité du contenu

Pourquoi le Daily Mail a-t-il été affecté? Bien que Google ne fournisse jamais de détails à la suite d’une mise à jour d’algorithme, un rapport du journal du moteur de recherche indique que cela est lié au contenu du site. Pendant des décennies, le Daily Mail s’est largement appuyé sur des titres sensationnalistes pour vendre des journaux et générer du trafic sur le site Web.

Roger Montii, l’auteur du rapport susmentionné, estime que l’algorithme pourrait avoir considérablement réduit le trafic organique en raison de la nature du site Web, basée sur le nombre de clics. Par conséquent, Google essayerait possiblement de mettre en place des filtres de contenu, étant donné les nombreuses informations erronées et fausses informations diffusées sur Internet.

Comment le Daily Mail a-t-il été impacté?

Selon certaines informations, le site aurait perdu près de 50% de son trafic de recherche quotidien, ce qui est remarquable compte tenu de sa popularité et de sa visibilité en ligne. Jesus Mendez, directeur du référencement média, a même écrit au forum de la console de recherche Google pour lui demander pourquoi le site avait connu un tel déclin du trafic de recherche. Certains médias ont même signalé que le site avait perdu 90% de son trafic sur Google Discover, ce qui aurait sans aucun doute un impact considérable sur la rentabilité de Daily Mail.

Ailleurs, des rapports indiquent que d’autres sites, notamment NFL.com et Vimeo, ont connu une baisse de découvrabilité. Nous avons mené nos propres recherches via SEMrush et pouvons clairement constater une baisse de la volatilité globale des SERP aux alentours du 3 juin 2019 – le jour du lancement de la mise à jour de l’algorithme. Pour ceux qui ne sont pas familiers avec le terme SERP, il signifie «résultat de page de moteur de recherche» et correspond en gros à la page qui apparaît sur Google lorsque vous soumettez une requête.

Que pouvez-vous faire?

Bien que nous ne sachions jamais quand Google mettra en œuvre une autre mise à jour d’algorithme, il est possible d’optimiser votre site Web afin d’atténuer l’impact hypothétique d’un changement futur.

Nous vous recommandons de suivre l’acronyme E-E-A-T, qui signifie «experience, expertise, authoritativeness, et trustworthiness». Ce concept repose essentiellement sur les directives de Google relatives à la qualification et à la quantification du contenu. Par conséquent, produisez un contenu engageant, factuel et écrit de manière concise.

Nous vous suggérons également de vous concentrer sur les aspects techniques, qui jouent un rôle crucial dans la détermination de la « découvrabilité » de votre site sur les principaux moteurs de recherche, notamment Google. Portez une attention particulière à certains aspects, tels que « la capacité d’analyse », la structure de lien interne et la canonisation afin d’améliorer efficacement les résultats de la recherche organique. En règle générale, si un site dispose de bases techniques solides, il est moins susceptible d’être impacté négativement par une mise à jour de l’algorithme.

Êtes-vous concerné?

Si vous êtes un client chez Dialekta, votre stratège principal procédera à un audit gratuit du site pour déterminer si celui-ci a été affecté par la dernière mise à jour. Ils entreront en contact avec vous au cours des prochains jours pour vous fournir toutes les informations essentielles.

Si vous n’êtes pas un client Dialekta procédez comme suit:

Connectez-vous à votre console de recherche Google et passez en revue les informations sous l’onglet Performances. Vérifiez si le nombre de clics et d’impressions a considérablement diminué.

  • Faciliter une vue d’ensemble de votre domaine en utilisant SEMrush. Le graphique doit indiquer si votre site a connu une baisse importante. Utilisez également la fonction Capteur sur le côté gauche pour examiner la volatilité globale ou catégorique des SERP.

  • Exécutez un audit technique à l’aide d’un logiciel tel que Screaming Frog, qui analyse votre site pour rechercher des anomalies, comme les erreurs 404 et la vitesse de chargement.

  • Créez un plan d’action pour le contenu et le côté technique, et n’oubliez pas de vous conformer au principe E-E-A-T mentionné précédemment.

Si vous recherchez une aide plus approfondie en ce qui concerne votre stratégie de référencement ou si vous avez simplement des questions ou des préoccupations, nous sommes toujours là pour vous aider. Contactez-nous aujourd’hui pour que nous puissions évaluer votre situation et travailler à vous obtenir des résultats positifs en utilisant nos connaissances et notre expertise dans ce domaine.

Vous aimeriez lire également

 
3 conseils essentiels pour optimiser le référencement en 2019
 
SEO + UX = Search eXperience Optimization (SXO)
 
Assistant vocal : Pourquoi s’y mettre maintenant?
m-b-m-795202-unsplash.jpg

SEO UX

SXO – Search eXperience Optimization

Qu’est ce que le SXO ou Search eXperience Optimization ?

Le Search eXperience Optimization (SXO) est un terme marketing utilisé pour définir une nouvelle forme de SEO qui, en plus de prendre en compte l’aspect technique et contenu des pages d’un site, se concentrerait sur la qualité de l’expérience utilisateur (UX – User Experience). On parle alors de mariage entre le SEO et l’UX. Les experts de notre agence SEO à Montréal vous expliquent!

Il faut savoir qu’à date, la qualité de l’expérience utilisateur est devenu un des critères phares dans le bon référencement d’un site web. En effet, Google recommande aux référenceurs SEO de bien prendre en compte l’expérience utilisateur au sein de pages d’un site afin que sa navigation soit de qualité et puisse convertir les prospects.

Les différentes mises à jour des algorithmes de Google qui ont eu lieu ces dernières années ont mises en avant l’expérience utilisateur ainsi que l’ergonomie mobile afin que ces critères d’optimisation deviennent des éléments indispensables au sein du bon référencement naturel technique et éditoriale d’un site.

Ce terme est une sorte de rappel soulignant l’importance de la qualité de l’expérience utilisateur au sein d’une stratégie SEO technique et éditoriale. Mais c’est également l’ère d’une nouvelle tendance visant à regrouper différentes techniques pour optimiser l’expérience utilisateur, de la recherche jusqu’à la conversion – d’où l’appelation CRO (Conversion Rate Optimization). Le SXO est défini de la manière suivante : SEO + UX = SXO – mais en soi, il est également né de l’association entre le Search Engine Optimization et le Conversion Rate Optimization.

UX + SEO = SXO ⇒ Mais pourquoi intégrer l’UX au SEO ?

L’UX ou User Experience (expérience utilisateur) a toujours eu un rôle très important lors de la mise en place d’une stratégie digitale. Il est le décor du site, l’aspect qui fait briller chacune des pages web pour les internautes, il est tout simplement l’élément qui rend la navigation plus facile et agréable aux yeux des lecteurs.

Le but majeure de l’UX vise à convertir plus facilement les visiteurs en prospects puis en leads en offrant une expérience positive du site web via ses pages (catégories, produits, articles, etc…).

En intégrant l’UX au SEO, cela permet d’optimiser et d’améliorer le processus de conversion suite à une visite client. Le rôle de cette intégration est de :

  • Tester et adapter l’expérience utilisateur en fonction des personas ciblées

  • Aider les visiteurs à trouver rapidement ce qu’ils recherchent sur le site

  • Mieux convertir les visiteurs provenant du trafic organique/naturel

  • Transformer les visiteurs uniques en potentiels prospects.

Reste à savoir comment bien combiner ces deux éléments pour un rendement optimal en terme de positionnement organique, de trafic et de conversion.

Comment bien mettre en place une stratégie SXO ?

À date, le SEO et l’UX design sont deux facteurs essentiels à prendre en compte dans la conception et la réalisation d’un site web pertinent et efficace sur les moteurs de recherche. En plus du SEO technique (balise canonical, hreflang, redirection 3xx, page 404, robots.txt, ect…), vous allez devoir vous focaliser sur l’expérience utilisateur et l’intégrer à votre stratégie de contenu SEO afin de mettre en place une bonne stratégie SXO. Pour cela, nous vous donnons quelques bons conseils pour vous assurer la mise en place d’une stratégie SXO réussie.

1- Le Design SEO-Compliant pour fusionner l’UX au SEO.

Afin d’assurer à la fois une lecture attrractive de vos pages pour vos lecteurs et tout aussi bien se positionner de manière naturelle dans les tops pages de Google, nous vous suggérons de mettre en place les actions qui suivent :

  • Créez un design attractif qui facilite la lecture et la navigation de l’internaute. Cette partie est plus spécifique à l’UX qu’au SEO mais à date, c’est l’un des points qui a le plus d’impact sur le taux de rebond du site. Il va de paire avec l’optimisation SEO.

  • L’ajout de liens et de call-to-action permettra de rendre l’UX plus charmant mais aussi de rendre la navigation vers les différentes pages du site et la conversion plus facile.

  • Optez pour une structure de site optimisée. Pour cela, il vous faut créer un menu de navigation avec des catégories et sous-catégories pertinentes pour le lecteur mais également pour Google. On parle alors d’optimisation de l’arborescence du site.

2- Une stratégie de contenu adaptée aux lecteurs

En plus de l’aspect visuel via le design des pages, il est primordiale d’offrir à vos lecteurs le contenu qu’ils recherchent. La stratégie de contenu est l’un des éléments clés pour réussir à mettre en place votre stratégie SXO. Pour cela, il est nécessaire de penser aux éléments suivants :

  • Mettre en place un contenu propre aux utilisateurs mais aussi au moteur de recherche afin de faciliter l’indexation du site sur Google et une lecture adaptée pour les lecteurs ⇒ étude de mots-clés (mots-clés spécifiques, longue traîne, requêtes interrogatives).

  • Ajouter des balises Title et Metas description optimisés afin d’apporter du contenu de qualité recherché par les internautes lors de leur recherche sur le web.

  • Renseignez des titres claires et optimisés (balises h1, h2) afin de bien structurer le contenu de la page et d’aider Google à comprendre le fond et la forme éditoriale.

3- Pensez Personas, Chemins utilisateurs et Eye Tracking

Un design optimisé pour une page web est essentiel pour faciliter la conversion de vos pages. Cependant, il faut d’abord apprendre à connaître votre audience et les différents personnas présents sur les pages de votre site. Il est important d’analyser les différents parcours utilisateurs afin de mieux comprendre et connaître le comportement et les besoins de vos internautes pour une conversion rapide.

L’une des méthodes utilisées pour bien définir les chemins utilisateurs sur votre site est l’Eye Tracking. Cette technique est utile pour déterminer dans quel ordre les éléments d’une page sont observés et également pour cerner les zones où le regard du visiteur s’attarde le plus.

4- Une ergonomie mobile suite au Mobile First-Index

Avec l’arrivée en force du mobile ces dernières années, Google a annoncé le passage au Mobile First Index afin d’assurer le bon référencement des pages mobile sur le web. En effet, la part du mobile a explosé depuis quelques temps et c’est l’une des raisons pour laquelle Google recommande vivement d’optimiser au mieux l’ergonomie mobile des sites afin qu’ils puissent être correctement référencés sur les moteurs de recherches. Une bonne stratégie SXO passe par une ergonomie mobile de qualité.

5- Un temps de chargement des pages optimisé

Autre élément phare dans la bonne implémentation de votre stratégie SXO, il s’agit du temps de chargement des pages de votre site. Plus vos pages chargeront rapidement, plus votre taux de rebond diminuera. Et cela, Google le prendra en compte et vous référencera mieux qu’avant sur le moteur de recherche. Pour atteindre une vitesse de chargement optimale, il vous faudra avoir recours à plusieurs actions plus ou moins techniques :

  • Compresser vos images afin que leur poids soit optimisé

  • Optimiser l’accessibilité du site avec un code propre et simple

  • Utiliser un serveur rapide afin d’assurer un bon transfert des données

6- Du testing récurrent pour s’assurer que la stratégie SXO soit optimale

Pour rappel, l’A/B testing (ou Test A/B) est une technique qui consiste à proposer plusieurs variantes d’une même page web mais qui diffère selon un seul critère/aspect afin de déterminer la version qui donnera les meilleurs résultats auprès des internautes.

L’A/B testing est donc l’une des clés qui va vous permettre de tester des optimisations et de voir comment votre audience réagit à ces changements. Vous pourrez donc mettre en place des changements sur votre site, les tester sur des périodes précises et choisir si, après le test effectué, vous souhaitez mettre définitivement ces changements en place.

Vous aimeriez lire également

 
3 conseils essentiels pour optimiser le référencement en 2019
 
Nouvelles sur la dernière mise à jour d’algorithme de Google
 
Assistant vocal : Pourquoi s’y mettre maintenant?
seo-ux-sxo.jpg

homme qui tape à la machine à écrire

Conférence Infopresse – SEO et stratégie de contenu

Le 13 juin dernier, Infopresse organisait une conférence sur le marketing de contenu, afin de faire le point sur les plus récentes tendances en marketing de contenu.

Trois études de cas ont été présentées à cette conférence Marketing de contenu, dont celle de l’agence SEO Dialekta avec Multi-prêts, qui expliquait comment intégrer le seo efficacement dans une stratégie de contenu.

Cela nous a ainsi permis d’expliquer comment il est important de bien intégrer le seo dans le cadre d’une stratégie de contenu, et de prouver qu’aujourd’hui ce contenu est la matière première sur laquelle il faut compter pour pouvoir être présent à l’avenir dans les résultats de la recherche vocale.

Étude de cas SEO Dialekta et Multi-prêts

Vous trouverez ci-dessous les slides de cette conférence Infopresse.

Téléchargez la présentation au format pdf :
Conférence Infopresse – Étude de cas Multi-Prêts

Vous aimeriez lire également

 
3 conseils essentiels pour optimiser le référencement en 2019
 
Nouvelles sur la dernière mise à jour d’algorithme de Google
 
SEO + UX = Search eXperience Optimization (SXO)
creation-de-contenu.jpg

Boostez votre visibilité avec la position 0

L’année 2018 est marquée sous le signe de la position 0 en SEO. La montée de la recherche vocale accorde une place encore plus importe à ce type de résultat de recherche. En effet, des études estiment la part des recherches vocales à 50% des recherches d’ici 2020. La ruée vers la position zéro est lancée, nous vous en résumons les principes.

Qu’est ce que la position 0 ?

La position zéro est un résultat de recherche naturel qui apporte un élément de réponse direct à l’internaute. Situé juste en dessous de la barre de recherche, il permet d’être avant les résultats d’annonces d’AdWords. Si une recherche est faite par un assistant vocal, c’est ce résultat qui lui sera donné oralement. On appelle les résultats en position 0 les extraits optimisés ou featured snippets. D’autres résultats se positionnent au dessus des résultats des SERP, à ne pas confondre avec les featured snippet, ce sont les « one box« , nous y reviendrons. Pour tous ces résultats de réponse directe on parle de « Answer Box« .

Réussir à se positionner en featured snippet offre donc un avantage concurrentiel non négligeable.

Il y a 20 ans, Google lançait ses premiers algorithmes lui permettant de référencer les sites internet dans un moteur de recherche. Depuis de nombreuses mises à jours et évolutions de ces systèmes d’indexation ont marqué l’industrie du référencement avec l’arrivée de Google Panda et Penguin particulièrement. Le lancement de RankBrain via le machine learning en 2015 puis la montée de la recherche vocale depuis 2016 nous amènent à des nouvelles façons de faire des recherches mais aussi nous entraînent vers une nouvelle façon d’indexer les sites internet.

Google cherche à améliorer son service et tend à aller au delà d’un moteur de recherche pour devenir un moteur de réponses.

Qu’est-ce que le machine learning ?

Le machine learning ou l’apprentissage automatique, repose sur le principe d’algorithmes qui permettent à des robots d’adapter leur comportements, en fonction de patterns, tout en se basant sur des données empiriques. Le big data est donc intimement lié au machine learning, qui permet aux robots de détenir les données suffisantes pour comprendre des patterns.


Fun Fact : le concept de machine learning – de machine intelligente – a commencé à se concrétiser dès les années 50 grâce à Alain Turing et le test Turing. Il est également à l’origine de la “machine universelle” en 1936, les ordinateurs se basent sur ce concept encore aujourd’hui.


Qu’est ce qu’un featured snippet ?

Le featured snippet est un résultat, choisi de façon programmatique par les algorithmes de Google, qui arrive en position 0 et qui propose des éléments de réponse direct à la requête d’un internaute. Il existe trois types d’extraits optimisés :

  • Les featured snippet “paragraphe” comme une définition. C’est le type d’extrait optimisé le plus fréquent.featured-snippet-paragraphe
  • Les featured snippet “liste” comme les recettes de cuisine, par exemple :

featured-snippet-liste

  • Les featured snippet  “tableau” comme pour les comparaisons, par exemple :featured-snippet-tableau

 

Les « One Box », c’est quoi?

C’est un autre format de réponse rapide que propose Google, qui se situe également avant les résultats des SERP. Ces blocs apparaissent en apportant une réponse directe à l’internaute, sans qu’il ait à la chercher en naviguant sur un site, comme se font les recherches traditionnelles sur le moteur. À la différence des featured snippet, ces résultats prennent forme à partir de microdonnées ou de partenariats avec Google.  Voici quelques exemples de résultats One Box :

  • La météo :

one-box-meteo

  • Les horaires de cinéma :

one-box-cinema

  • Les conversions :

one-box-conversion

Comment arriver en position 0 sous forme d’extrait optimisé?

Les résultats en featured snippet sont choisis de façon programmatique, il faut donc rendre la page lisible auprès des robots pour qu’ils comprennent que les informations que vous proposez ont leur place en position zéro.

Voici quelques conseils à suivre pour avoir plus de probabilités d’arriver en position 0 :

  • Essayez de positionner des pages déjà dans le top 10

position-0Il est plus facile d’arriver en position zéro si une page se positionne déjà bien dans les SERP. Vous pouvez même identifier, grâce à des outils comme Ahref , si certaines de vos pages sont déjà positionnées sous forme d’extraits optimisés, dans ce cas il faudra veiller à les conserver.

  • Apprenez à connaître ce que les internautes recherchent

site-answer-the-publicArriver en position 0 c’est bien, mais sur une requête qui a un bon volume de recherche c’est mieux. Il est donc primordial de savoir comment recherchent les internautes. Avecdes outils comme Answer the public, vous pouvez savoir quelles questions sont le plus souvent posées par les internautes pour un champ lexical donné. Si vous travaillez votre stratégie avec les bonnes questions, vous maximisez vos chances d’arriver en position zéro tout en optimisant vos conversions.

  • Produisez du contenu de qualité

Enfin, il faut que votre réponse soit perçue comme la plus pertinente par les robots. Vous devez adapter votre structure de page au featured snippet que vous souhaitez faire remonter (Comme nous l’avons vu plus haut : de type paragraphe, liste ou tableau). Vous pouvez utiliser des microdonnées pour faciliter davantage la lecture des informations que vous souhaitez faire remonter. L’analyse poussée par Miss SEO Girl montre que les pages avec beaucoup de contenu ont tendance à mieux remonter sous forme d’Answer Box, à condition que la qualité soit au rendez-vous, bien entendu.

Capitaliser sur la position 0 pour améliorer mes conversion

La position zéro est-elle réellement rentable quand elle offre à l’internaute une réponse sans qu’il ait besoin de naviguer sur mon site ?
Le résultat en featured snippet permet de drainer du trafic de qualité sur votre site internet. L’internaute qui, bien qu’ayant un élément de réponse, choisit tout de même de naviguer sur votre site, démontre un réel intérêt pour votre contenu.
Notre étude de cas sur le site de Multi-prêts nous a permis d’obtenir 44% de trafic organique en plus grâce à la position 0.

De plus avec la montée de la recherche vocale via assistant vocal, les réponses en featured snippet seront les seules perçues par les internautes recherchant de cette manière.

Pourquoi viser la position 0 ?

  • C’est un excellent moyen de pouvoir réduire drastiquement ses coûts médias, tel que l’adwords, sur des requêtes très compétitives comme les produits et/ou services car elle se positionne au-dessus de toute requête (SEA & SEO).
  • Elle permet également de se (re)positionner sur des requêtes interrogatives beaucoup plus spécifiques en organique via des requêtes dites de longue traîne. C’est notamment grâce à ces requêtes de longue traîne que des pages peuvent se positionner sur de la position zéro.
  • C’est l’unique moyen de se positionner sur de la recherche vocale. Chaque réponse que propose les assistants vocaux tels que Google now (Google), Alexa (Amazon), Siri (Apple) ou encore Cortana (Microsoft) sont des réponses qui proviennent des résultats situés en position 0. L’Answer Box est donc un excellent moyen de se positionner sur la recherche vocale.
  • Elle permet aujourd’hui de proposer une réponse claire et simplifiée ce qui entraîne, en général, une augmentation du taux de clics puisque les internautes souhaitent en apprendre plus.

 

Vous aimeriez lire également

 
3 conseils essentiels pour optimiser le référencement en 2019
 
Nouvelles sur la dernière mise à jour d’algorithme de Google
 
SEO + UX = Search eXperience Optimization (SXO)
answer-box.jpg

Dashboard numérique - agence Dialekta

Comment optimiser son référencement naturel et redistribuer son budget de crawl à toutes les pages de son site ?

Oncrawl, société française créée en 2013 par Francois Goube et Tanguy Moal, a développé un outil SEO qui peut être utilisé à la fois comme Crawler SEO et/ou comme Analyseur de logs serveurs, le tout en ayant la possibilité de plugger toutes sortes d’outils externes comme la Google Search Console, Google Analytics, AT Internet, Majestic SEO, SEMrush, etc …

Vous l’aurez compris, cet outil est puissant et il facilite aujourd’hui l’analyse SEO d’un site web. Avec OnCrawl, notre agence SEO peut ainsi croiser toutes les données SEO que nous récoltons via différentes plateformes. Cela va nous permettre de comprendre comment Google explore et analyse les pages de notre site et quels sont les critères les plus importants à ses yeux pour optimiser au mieux le référencement naturel d’un site.

Lors de la prise en main de l’outil, nous avons tout d’abord souhaité comprendre comment agissaient les robots de Google – dits Googlebots – au sein du site.

Nous voulions nous assurer que les robots de Google crawlaient bien toutes les pages de notre site ou du moins, les pages les plus importantes telles que la page d’accueil, les pages “catégorie” ou encore les articles de notre blogue. Pour cela, nous avons donc récupéré les logs serveurs du site sur les trois derniers mois puis nous les avons pluggé à l’outil Oncrawl.

L’analyse des logs et du budget de crawl

 

La première découverte, que nous avons faite en regardant les résultats de l’analyse de logs, c’est l’arrivée du Google Mobile First-Index sur notre site. D’après Google, notre site serait prêt à passer au Mobile First-Index puisque le passage des Googlebots Mobile (48.6%) et aujourd’hui quasiment égal au nombre de Googlebots Desktop (51.4%).

La seconde grande découverte, dont l’outil nous a fait part, concerne le passage des robots au sein des pages du site. Sur une période de 30 jours (27 février au 28 mars 2018), les robots de Google sont passés 13092 fois sur différentes pages du site, 460 pages uniques.

Si nous rentrons dans le détail des pages uniques qui ont été crawlées par Google, nous nous apercevons que sur l’ensemble des logs serveurs et des 13092 hits (mobile et desktop), 89% proviennent de deux pages seulement. Cela signifie que 9 googlebots sur 10 crawlent les pages https://dialekta.com/fr/blog?lang=fr et https://dialekta.com/blogue/?lang=fr.

Ces deux pages sont crawlées 188 fois par jour alors que de son côté, la page d’accueil, qui est censée être la page la plus importante et la mieux maillée dans l’arborescence du site, est « hitée » seulement 14 fois par jour (424 hits sur la période donnée).

Grâce à l’analyseur de logs, nous savons donc qu’à date, les pages les plus importantes pour Google sont des pages d’accueil du blogue, des pages qui ne sont actuellement pas les bonnes pages du blogue. En effet, la page d’accueil du blogue Dialekta est la suivante : https://dialekta.com/fr/blog

Cet élément nous permet d’affirmer que Google n’analyse pas le site comme nous le souhaitons car 89% du budget de crawl est alloué à des pages qui n’ont pas d’intérêt pour le site. Il ne reste donc que 11% du budget de crawl alloué pour les autres pages du site, ce qui n’est pas suffisant et cela se voit ci-dessous.

En effet, la fréquence de crawl des pages actives du site – pages qui génèrent au moins une visite – est inférieur à 1.

Cela se confirme sur le graphique ci-dessous, ou nous apercevons que parmi les pages actives SEO, seule la page d’accueil (répertoire Home) est crawlée fréquemment (+ de 5 hits par jour).

De plus, grâce au crawler, nous avons détecté une grande présence de liens externes follow qui, en soi, font perdre du Google Juice – ou Link Juice – aux pages du site Dialekta, puisqu’elles transmettent leur popularité à des pages externes.

Le plan d’actions

Suite à ces résultats, nous avons mis en place deux actions ayant pour but de redistribuer le budget de crawl au sein des pages actives du site afin qu’elles puissent être explorées par les robots de Google et revalorisées pour un meilleur positionnement dans les moteurs de recherche.

  1. La première de ces deux actions a été de mettre en place une redirection 301 sur les deux pages https://dialekta.com/fr/blog?lang=fr et https://dialekta.com/blogue/?lang=fr vers la bonne page d’accueil du blogue – https://dialekta.com/fr/blog/. En testant cette action de redirection, nous espérons que le budget de crawl soit redistribué via la page https://dialekta.com/fr/blog/ vers les pages articles du blogue.
  2. La seconde action a été d’ajouter la balise rel= »nofollow » aux liens externes follow qui distribuaient du Link Juice aux pages externes. En ajoutant cette balise, nous souhaitons garder le link juice sur les pages du site et valoriser la notoriété de nos pages par Google afin d’améliorer leur positionnement dans les moteurs de recherche.

Une fois ces deux actions implémentées, nous avons laissé quelques semaines se passer afin que Google puisse correctement prendre en compte ces changements.

L’analyse des résultats suite aux actions

Un mois après les changements effectués sur le site de Dialekta, nous avons de nouveau récupéré les logs serveurs sur une période de 30 jours (9 mai au 7 juin 2018) comme nous l’avions fait précédemment. Et les résultats ont été assez probants.

Tout d’abord, le nombre de pages uniques crawlées a augmenté de 36%, passant de 460 à 627 pages uniques crawlées. Cela signifie que le budget de crawl est mieux distribué sur l’ensemble des pages du site.

Période – 27 Février au 28 Mars 2018

Période – 9 Mai au 7 Juin 2018

Cela se confirme lorsque l’on regarde le crawl ratio du site et qu’on le compare avec le précédent crawl ratio. Avant, le crawl ratio était de 73.5% ce qui signifie que 26.5% des pages du site Dialekta – connu par Google et Oncrawl – n’étaient pas crawlées par les Googlebots. De plus, 43% des pages présentes dans la structure du site n’étaient pas non plus crawlées.

Suite au plan d’actions, nous avons aujourd’hui 96% du crawl ratio utilisé et aujourd’hui, seulement 0.35% des pages maillées ne sont pas explorées par les robots de Google.

Période – 27 Février au 28 Mars 2018

Période – 9 Mai au 7 Juin 2018

En plus de cela, nous notons l’augmentation de la fréquence de crawl sur les pages actives du site Dialekta. Si la fréquence de crawl globale a légèrement diminué, la fréquence de crawl des pages actives a quant à elle été multipliée par 5,5.

 

Période – 27 Février au 28 Mars 2018

Période – 9 Mai au 7 Juin 2018

Nous constatons donc une évolution du budget de crawl qui se met à crawler de plus en plus de pages maillées au sein du site. En effet, la grande majorité des pages du site est maintenant crawlée.

Période – 27 Février au 28 Mars 2018

Période – 9 Mai au 7 Juin 2018

Conclusion

Grâce à l’analyse de logs fournie par Oncrawl, nous avons réussi à redistribuer le budget de crawl sur presque toutes les pages et répertoires du site en implémentant seulement deux actions. Suite à ces changements, nous pouvons aujourd’hui constater que toutes nos pages de niveau 1 à 6 sont toutes crawlées et que 96.5% de nos pages de niveau 7 sont également crawlées. Ce qui n’était pas le cas auparavant …

Période – 27 Février au 28 Mars 2018

Période – 9 Mai au 7 Juin 2018

L’analyse de logs est aujourd’hui un élément incontournable dans l’analyse SEO d’un site web. En effet, si vous souhaitez optimiser les pages d’un site avant même de comprendre comment Google l’interprète, alors, il se peut que vous optimisiez des pages qui ne sont, à la base, même pas crawlées par les robots de Google. Si cela est le cas, alors vos optimisations SEO n’auront pas de gros impacts sur vos pages.

Il faut savoir que dans notre situation, sans l’analyse de logs, nous n’aurions jamais pu savoir que Google ne considérait qu’une toute petite partie des pages de notre site. Alors si vous aussi, vous souhaitez mieux comprendre comment Google explore votre site via l’analyse de logs, contactez-nous afin que nous puissions vous rencontrer et vous en parler.

Vous aimeriez lire également

 
3 conseils essentiels pour optimiser le référencement en 2019
 
Nouvelles sur la dernière mise à jour d’algorithme de Google
 
Qu’est ce qu’un Chatbot et comment l’utiliser pour mon entreprise?
dashboard-sample.jpg

Recevez les dernières tendances en média et marketing de performance et les précieux conseils de nos experts directement dans votre boîte courriel.