19. #seocamp 19
Ne pas présenter aux robots :
• Toutes les pages présentes en grand nombre sur le site et
ne présentant pas d'intérêt SEO pour l'internaute
• Formulaires nombreux
• Pages avec très peu de texte
• Pages de résultats du moteur interne
• Facettes (e-commerce)
• Tunnel de vente
• Contenu dupliqué
• Contenu obsolète
• Bugs
• Etc.
20. #seocamp 20
1. On fait un crawl du sit
e
2. On fait le tri parmi les résultats
25. #seocamp 25
2b. X-Robots-Tag "noindex"
HTTP/1.1 200 O
K
Date: Tue, 25 May 2021 21:42:43 GM
T
(…)
X-Robots-Tag: noindex
(…)
Pour les PDF et formats autres que HTML
27. #seocamp 27
3. Balise "canonical"
<link rel="canonical" href="URL-A.html">
B est dupliquée de A
28. #seocamp 28
Directives et Indications
Le robots.txt et la balise meta robots "noindex" sont des Directives
La balise "canonical" est un "hint" (Indication)
35. #seocamp 35
QUESTION N°1
:
Est-ce que le nombre de pages
crawlables est proche du
nombre de pages indexables ?
(peu de noindex et de canonicalisées,
bon budget crawl)
= en théorie, tout devrait bien se passer...
38. #seocamp 38
QUESTION N°2
:
Est-ce que le nombre de pages
indexables est proche du
nombre de pages indexées ?
(Search Console > Couverture > Valides)
= en pratique, tout s'est bien passé...
39. #seocamp 39
Morale de l'histoire
Oui, il faut présenter aux robots les pages
intéressantes et pas les autres.
Mais il faut privilégier le robots.txt
lorsque c'est possible.
47. #seocamp 47
Gestion des 301
Si possible, proposer le moins de 301 possible
dans l'arborescence (lors du crawl)
Ce qui ne signifie pas qu’il faut
supprimer les 301 !