Découvrez comment faire de l'analyse de logs serveur pour optimiser le référencement de votre site web, détecter les facteurs bloquants et découvrir les pages que les moteurs de recherche tels que Google apprécient.
Tous ces éléments permettent d'améliorer le SEO des sites.
Vous y appendrez des termes comme : le crawl, les logs serveurs et apprendrez à interpréter les lignes enregistrées par votre serveur web
Analyse de Logs et SEO : Comment utiliser les logs pour optimiser son site pour le référencement naturel
1. COMMENT UTILISER LES LOGS
POUR OPTIMISER SON SITE
Passer son référencement naturel à un autre niveau
2. Au menu
1. Qu’est-ce que le SEO
2. Comment optimiser son SEO : Audit technique
3. Utilité de l’analyse de logs
4. Logs + Crawl : Le combo gagnant
5. Étude de cas
4. LES BASES DU SEO
Définition : SEO (Search Engine Optimisation) - Référencement naturel - Ensemble des actions qui
consistent à positionner un site.
Techniques
● Structures du site
● Qualité du code
Contenu
● Qualité du contenu
● Unicité du contenu
Analyse
● Trafic
● Comportement
utilisateurs
Linking
● Maillage interne
● Liens externes
Stratégie
6. PRINCIPE DE L’AUDIT TECHNIQUE
Définition : étude détaillée des éléments techniques d’un site web afin d’optimiser ses performances.
Objectif visé : faciliter la vie aux moteurs de recherches.
Structure du site
● Balisage sémantique
● Structure des URL
● Niveau de profondeur des pages
Qualité du code
● Validité W3C
● Bonne utilisation des balises
● Pas de technologie bloquante
Indexabilité
● Est-ce que Google voit et indexe mes pages
Un audit technique réussi, c’est près de la moitié du travail de SEO qui est réalisé.
Après il faut convaincre de l’importance de la mise en oeuvre des optimisations.
7. GOOGLE ANALYTICS
Outil d’analyse de trafic qui permet d’avoir une vue d’ensemble sur le site et du comportement
utilisateur
● Trafic global
● Trafic par leviers (SEO, SEA, Direct, Référent, Réseaux Sociaux)
Analyser en priorité : Visites, Sessions, Visiteurs uniques, Taux de rebonds, Temps passé par pages
Conversions
Isoler le trafic : par catégorie sur le site ou par type de page
Segmenter le trafic : pour détecter les points faibles
8. GOOGLE SEARCH CONSOLE
Outil d’analyse pour détecter le comportement de Google sur le site
Informations sur
● La fréquence de crawl
● Le temps de chargement des pages
● Le niveaux d’indexation
● Besoins d’optimisation
● Erreurs serveurs
9. CRAWLERS
Définition : Les crawlers sont des programmes qui parcourent et indexent le contenu d’un site web en
explorant l’ensemble des liens rencontrés.
Crawlers célèbres
● Moteurs de recherche (Googlebot, Bingbot, etc.)
● Crawlers de surveillance (Vérification de
présence, lien)
● Crawlers d’aspiration de site (HTTrack)
● Crawlers d’audit (ScreamingFrog, MnogoSearch)
10. CRAWLERS ET SEO
Détecter les problèmes techniques
● Liens brisés 404
● Boucles de redirection
● Blocage d’indexation
● Erreurs serveurs
● Temps de chargement
Détecter problèmes d’optimisation
● Title/Description trop longs ou trop
courts
● Balises Alt manquantes
● Contenu des pages trop faible
● Présence de micro-données
13. Client :
• Envoie une requête au serveur • Reçoit des
requêtes
• Attend la réponse • Effectue les traitements
• Affiche la réponse • Renvoie les résultats
• Navigateur web
• Client mail
• Robot de moteur de recherche
Serveur :
Serveur web (Apache, Nginx, IIS,
...)
• Serveur mail
• Application spécifique
14. LOGS SERVEUR
Définition : Un fichier de log contient l’historique des évènements qui ont eu lieu sur un serveur.
Contenu :
● Adresse IP de la requête
● Date
● Méthode
● Requête effectuée
● Code de réponse serveur
● Taille de réponse
● Referrer
● User-agent
66.249.76.14 - - [01/May/2017:03:19:32 +0200] “GET /url-de-la-mort
HTTP/1.1” 200 8893 “-” “Mozilla/5.0 (Compatible; Googlebot/2.1;
+http://www.google.com/bot.html)”
15. À QUOI SERVENT LES LOGS EN SEO ?
Déterminer l’impact de leur comportement sur le SEO
● Identifier le trafic SEO
● Détecter les pistes d’optimisations
Savoir ce que les bots des moteurs de recherches font sur le
site
● Pages visitées et appréciées
● Erreurs rencontrées
● Temps / Fréquence de passage
16. LOGS SERVEURS VS GOOGLE ANALYTICS
Logs serveurs :
● Enregistrent tout le trafic
● Pas d’échantillonnage
● Difficile à analyser
Google Analytics
● Interface agréable
● Facile à mettre en place
● Pas de trafic des robots
● Optimisé pour l’analyse web marketing
19. LOGS + CRAWL : LE COMBO GAGNANT
Réaliser des audits
● Détection de pages orphelines
● Détection de pages actives et catégories
● Optimiser la structure du site
● Maillage interne
● Mesurer l’impact des optimisations
Faire du monitoring
● Déclencher des alertes
● Constater les hacks
20. ÉTUDES DE CAS
1. Favoriser le passage sur une section du site
● Idée : Équivalent du PR-sculpting
● Méthode : Forcer les robots à prendre en compte rapidement les modifications d’une page ou
d’une catégorie de pages
2. Détection des pages orphelines
● Idée : Savoir si des pages ne sont pas dans l’arborescence du site
● Méthode : Croiser les données de crawl et celles des logs et isoler les pages vues par les bots qui
ne sont pas dans le crawl
3. Détecter un hack de site
● Idée : S’assurer de la bonne santé du site en temps réel
● Méthode : Monitorer avec ELK les logs enregistrés par le serveur