Optimiser la structure d’un site grâce à l’analyse de logs


Optimiser la structure d’un site grâce à l’analyse de logs
Notez cet article !

Des logs… qu’est-ce que c’est ?

D'abord commençons par les logs… Ce sont des données enregistrées de toutes les connexions au site web. Ces données sont assez riches et contiennent entre autre : les urls de connexion, l’heure, le refferer , l’entête http… Autant dire qu'en ayant possession de ça on est assis sur une mine d'or… reste à l'exploiter !
En croisant toutes ces données on pourra aller très loin dans l'analyse SEO et l'optimisation du Crawl de Google (vous savez ce fameux temps qu'il passe chaque jour à parcourir nos pages).

Qu’est-ce que les logs m’apprennent ?

Concrètement avec Botify nous allons nous apercevoir que Google (Bing, Yandex, ou autres) ne consacre pas toujours l'essentiel de son temps à crawler les pages importantes d'une structure. Parfois, il se perd dans les sites trop profonds, il consacre une partie de son énergie à se visiter d'anciennes pages qu'on aurait imaginées disparues, et il découvre même des pages jusqu’alors totalement inconnues. On pourrait considérer que n'est pas grave à partir du moment où Google a découvert tous nos contenus, mais ce serait une grave erreur !

En quoi les logs permettent d’améliorer le SEO ?

Il faut bien comprendre qu’en général, en SEO on base nos suppositions sur une expérience personnelle ou le passif lié au site. Par exemple, on suppose que Google ne va pas voir les pages profondes, on suppose qu’une page ne reçoit pas assez de liens, … et ensuite une fois que les choses sont corrigées, on suppose que ce qu’on a modifié a permis d’améliorer les performances SEO.

Nous utilisons donc Botify pour nos clients afin de rationaliser tout cela. En effet avec Botify log analyzer, nous allons analyser les logs et la structure du site pour voir s’il n’y a pas des pages que GoogleBot a des difficultés à parcourir.
Exemple : 70% des fiches produit d'une catégorie sont crawlées. De ce constat nous allons apporter des modifications au site pour optimiser le Crawl de GoogleBot et faire en sorte que 100% du budget de Crawl soit utile (c’est-à-dire que les moteurs de recherche ne crawlent que des pages utiles d’un point de vue SEO).

Typiquement quelles sont les questions auxquelles répond Botify… non exhaustif 😉

  1. Est-ce que toutes mes URLs sont vues par Google ?
    logs : pages crawlées par google VS pages dans la structure du site
    Dans cet exemple, on voit clairement que des pages hors structure sont crawlées par les bots de Google alors qu'une partie des pages de la structure ne le sont pas. Il y a donc des actions à mener pour que 100% des pages trouvées par Botify soient également trouvées par Google.
     
  2. Est-ce que je dois bloquer/réduire le crawl sur une catégorie de mon site ?

    Ici, on voit clairement que certaines catégories de pages sont fortement crawlées par Google (partie gauche du graphique) alors q'une seule de ces catégorie apporte du trafic (partie droite). Ici, l'objectif sera donc de réduire le volume de crawl sur les pages qui ne génèrenent pas de trafic au profit de celles qui en génèrent.
     
  3. Est-ce que j'ai bien géré ma migration ?
    Gestion d'une migration : analyse des logs et entêtes http
    Ici on peut affirmer que oui : je n'ai pas d'erreurs 404 et tout a été redirigé en 301. (C'est quand même plus rassurant de voir ça plutôt que de voir des données dans Google Analytics qui ne prenent en compte que les Utilisateurs et pas les Bots. Non ? )

Il ne s'agit là que de quelques indicateurs, Botify en fournit évidement beaucoup plus et comme il y a beaucoup d'infos, il faut consacrer pas mal de temps à l'interprétation des données afin de mettre en place les optimisations techniques adaptées… et c'est là que nous intervenons !

Contactez nous pour plus pour obtenir plus de détails sur nos prestations d'analyse de log !  

Étiquettes :

<

ou contactez-nous au