3. @htitipidotcom #SEOCamp 3
De quoi va-t-on parler ?
● D’analyse “on site” orientée contenu
● De technique, mais pas trop
● De l’importance du recoupement des données
● De segmentation du contenu
● De pages actives et inactives
● De Google panda… à peine !
6. @htitipidotcom #SEOCamp 6
L’importance d’une bonne analyse “on site”
La qualité d’un audit peut apporter des
réponses à des questions parfois décisives :
● Quel est le volume de pages inactives ?
● Quelles sont les rubriques les plus performantes ?
● Quel est l’impact (ou la corrélation) des votes sociaux
sur la popularité de mes pages ?
● Dans quelle mesure la duplication de contenu
“pénalise” mon site ?
● Dans quelle proportion la profondeur des URLs influe-t-
elle l’appétence du GoogleBot et la visibilité dans les
SERPs ?
● ...
9. @htitipidotcom #SEOCamp 9
Le crawl : point de départ de l’audit “on site”
Fonction du crawler : parcourir
le site de lien en lien et récolter
les data orientées SEO
10. @htitipidotcom #SEOCamp
Les crawlers “desktop”
10
Le crawl : point de départ de l’audit “on site”
Les crawlers “Saas”
Avantages : faibles coûts, nombre illimité
de crawls, pas de limite d’URLs si ce n’est
la capacité de votre machine.
Avantages : “Scalable”, recoupement
avec GA et parfois logs, performances du
cloud computing, monitoring & alertes.
11. @htitipidotcom #SEOCamp 11
Google analytics n’est pas un crawler !
Google Analytics ne donnera probablement jamais la liste complète des URLs d’un site à l’instant
T, et ne permet donc pas d’évaluer un site dans son ensemble.
Mais on peut combiner les deux outils...
≠
17. @htitipidotcom #SEOCamp 17
Vlookup, le super combo du SEO
Nous pouvons maintenant déterminer :
● le volume de pages inactives,
● les pages boudées par le Googlebot,
● l’impact du DC sur le trafic organique
● la performance des liens entrants
● …
… Mais il manque une dimension importante !
+
vlookup (recherchev)
20. @htitipidotcom #SEOCamp 20
Segments thématiques
XPath :
//nav[@id='breadcrumb']/span[2]/a/span
Le Xpath peut s’obtenir de multiples façons
notamment avec “inspecter l’élément” dans Chrome
21. @htitipidotcom #SEOCamp 21
Scraping avec Google spreadsheet et IMPORTXML
XPath :
//nav[@id='breadcrumb']/span[2]/a/span
Egalement possible avec la fonction
=XPathOnUrl() de SEOtools for Excel
24. @htitipidotcom #SEOCamp 24
A partir de là, on peut générer plein de stats
Nombre d’URLs filtrées
correspondant à “Univers 2”
Nombre total d’URLs
Nombre total d’entrées
organiques (sur 30 jours)
Moyenne des pages
crawlées par le
Googlebot (sur 30 jours)
Possibilité d’affiner encore plus le filtrage
des thématiques/catégories
27. @htitipidotcom #SEOCamp 27
Autres types de segmentation
Il est aussi possible de segmenter le site par :
● Date (année ou mois de mise en ligne), bien utile pour apprécier
l'obsolescence des pages,
● Notes (rating) attribuées aux produits/articles,
● Typologie de page (article de fond, blog, taxonomie...)
● Custom post type (Wordpress)...
The sky’s the limit!
28. @htitipidotcom #SEOCamp 28
Il est maintenant possible de :
● Déterminer quelles sont les pages inactives,
● Connaître la performance des différentes branches du site, et évaluer
éventuellement les causes
● Faire des recoupement entre perte de visibilité et appétence du
Googlebot…
C’est la base d’une bonne analyse on-site, et le point de départ d’un plan
d’action anti-panda.