Dans ce cours vous découvrirez les étapes à ne pas ne négliger pour un Référencement naturel.
Le document vous familiarise aussi à des notions souvent négliger par les apprenants.
1- LES BASES DU RÉFÉRENCEMENT ON-SITE
2- LES PRÉREQUIS POUR UN BON RÉFÉRENCEMENT
3- COMMENT TROUVER DES IDÉES POUR DOUBLER VOTRE TRAFIC !
2. La formation SEO vous apportera toutes les compétences nécessaires en
référencement naturel pour développer la visibilité de votre site internet sur les
moteurs de recherche.
Cette formation vous enseignera les clés pour un référencement durable et
qualitatif !
Introduction
3. LES BASES DU REFERENCEMENT ON-SITE
LES MOTEURS DE RECHERCHES (1H)
Pour comprendre le référencement, il faut comprendre
comment fonctionne un moteur de recherche.
Google et le WEB
Un peu d’histoire
Quelques notions SEO
Qu’est qu’un moteur de recherche ?
Les MAJ de Google et la notion de « filtre »
L’indexation par le crawl
La notion d’index et critères de classement
4. LES PREREQUIS POUR UN BON REFERENCEMENT
LES FREINS AU REFERENCEMENT (3H)
Cette première étape est très importante : corriger les
éléments bloquants pour favoriser la lecture de votre site par
Google, et cela avant de pouvoir mettre en place des chantiers
de croissance.
Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Mise en place de « silo sémantique »
Implémentation des Rich Snippets
Optimisation des temps de chargement
Optimisation du maillage interne
La duplication de contenu. (Duplicat content interne et externe : Mythe
ou Réalité ?)
Redirection 301 et balises canonical
Prévenir les pénalités du type « Panda »
5. VOYONS COMMENT TROUVER DES IDEES POUR
DOUBLER VOTRE TRAFIC !
CHANTIER DE CROISSANCE : REDACTION WEB (2H)
La base du référencement, c’est un contenu de qualité !
Comment apprivoiser cette notion subjective en critères
objectifs SEO ?
Balise HTML importantes en SEO (title, méta-description, Hn, alt…)
Optimiser un contenu pour le mettre en valeur (travail du champ lexical et
de la sémantique)
Optimiser la navigation et la présentation des contenus en relation avec
les normes de l’UX
Trouver des idées de contenu et mots-clefs : SECockpit, Google Trends,
UberSuggest, Semrush
Présentation des outils sémantiques : Alyze, 1.fr, Visiblis, Google Keyword
Planner
6. LES BASES DU REFERENCEMENT ON-SITE
1. Un peu d’histoire
30 milliards de pages sont indexées par Google, 20 milliards de
pages sont visitées chaque jour par Google. 70% des internautes
cliquent sur un résultat naturel, 75% des internautes ne vont jamais
au delà de la 1ere page de résultats, 60% des clics organiques vont
aux 3 premiers résultats de recherche.
131 milliards de recherches sont effectuées chaque mois dans les
moteurs de recherche soit 50000 par seconde. Les recherches
d'images représentent 1 milliard de pages par jour.
Les sites de 30 pages et plus génèrent 7 fois plus de leads que ceux
qui en ont moins de 10.
Google représente 90% des recherches dans le monde. 500 millions
de recherches sont effectuées chaque jour sur Google
7. Le SEO qu'est-ce que c'est ?
Optimisation pour les moteurs de recherche
L’optimisation pour les moteurs de recherche (en anglais : Search engine
optimization, SEO) est un ensemble de techniques visant à favoriser la
compréhension de la thématique et du contenu d'une ou de l'ensemble des
pages d'un site Web par les moteurs de recherche. Ces techniques visent
donc à apporter un maximum d'informations concernant le contenu d'une
page web aux robots d'indexation des moteurs de recherche.
8. Le SERP qu'est-ce que c'est ?
Page de résultats d'un moteur de recherche
La page de résultats d'un moteur de recherche (également connue sous
l'acronyme SERP, pour l'anglais search engine results page) est une page web
qu'un moteur de recherche génère automatiquement en fonction de mots-
clés saisis par un internaute, et qui consiste en un ensemble de liens pointant
vers les ressources qu'il considère, parmi toutes celles qu'il indexe, comme
pertinentes pour cette requête au regard de son système de classement
intrinsèque.
10. PageRank qu'est-ce que c'est ?
Le PageRank ou PR est l'algorithme d'analyse des liens concourant au système de
classement des pages Web utilisé par le moteur de recherche Google. Il mesure
quantitativement la popularité d'une page web. Le PageRank n'est qu'un indicateur
parmi d'autres dans l'algorithme qui permet de classer les pages du Web dans les
résultats de recherche de Google. Ce système a été inventé par Larry Page,
cofondateur de Google. Ce mot est une marque déposée.
12. Mot clé qu'est-ce que c'est ?
Un mot clé désigne généralement le mot ou l’ensemble de mots (expression) saisis
par un internaute pour effectuer une recherche d’information sur un moteur ou pour
chercher un produit ou un contenu sur un site marchand ou éditorial.
13. La longue traine qu'est-ce que c'est ?
La longue traine désigne les mots clés qui attirent chacun peu de visiteurs sur un site
Internet, mais dont le cumul peut représenter une part non négligeable du trafic total
d'un site.
La longue traîne est généralement constituée de mots peu utilisés ou au moins de
synonymes peu connus qui, du fait de leur faible utilisation par les internautes, seront
moins concurrentiels : si moins de recherches sont faites sur ces mots-clés, il est en
revanche plus facile pour les sites d'obtenir une bonne position dans les SERP.
15. Le positionnement qu'est-ce que c'est ?
Le positionnement désigne la place occupée par une page dans les réponses affichées
par un moteur de recherche.
Cette position est obtenue en fonction du niveau de pertinence de la page par rapport
à une requête par mot clé
16. La recherche universelle qu'est-ce que c'est ?
La "recherche universelle" (ou "universal search" en anglais") est un concept
qui tend à afficher, dans une page de résultats d'un moteur, des données
issues de bases de données différentes, soit la plupart du temps : Web,
images, vidéos, actualité...
Abondance
21. Un moteur de recherche qu'est-ce que c'est ?
Année 2018 : Google Chrome au-delà des 60 % de part de
marché toutes plates-formes confondues
22. 4. Les MAJ de Google et la notion de « filtre »
Les mises à jour de l’algorithme de recherche Google concernent maintenant la
qualité globale du site. et non la chasse aux pratiques frauduleuses ( panda pour
le texte , pingouin pour les liens et bien d’autres. Le nom générique est Core
Update.
Un site Web doit être responsive et 100% compatible appareil mobile sans quoi
vos positions sur l’indexation mobile first sera mauvaise.
Évitez les pop-up (bannière interstitielle) intrusive qui prennent la majorité de
l’écran d’un téléphone
Jouez la rapidité d’affichage quelque soit le support de navigation.
Rédigez du contenu structuré , de qualité, bien composé qui apporte une
information utile.
Ne faites pas la chasse aux liens bas de gamme.
Migrer votre url vers HTTPS .
Oubliez les stratégie de pages satellite, bâtissez un site majeur qui couvre tous
les aspect de votre thématique.
24. 5. L’indexation par le crawl
Anglicisme se rapportant à l'exploration des pages et leur code source
réalisée par des robots, en général ceux des moteurs de recherche, ou
d'autres outils qui les imitent.
Journal du Net
Crawl → Indexation → SERP
26. Fin 1ere partie
Au terme de la première partie, nous devons comprendre que
pour mieux être plus visible sur le net, Google reste le moteur
de recherche à prioriser
27. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt,
sitemaps)
Fichiers robot.txt
Un fichier robots.txt indique aux robots d'exploration des moteurs
de recherche les pages ou les fichiers qu'ils peuvent ou ne peuvent
pas demander à votre site. Son objectif principal est d'éviter de
surcharger votre site de demandes. Il ne sert pas à empêcher qu'une
page Web figure dans les résultats de recherche Google. Pour
empêcher qu'une page figure sur Google, vous devez utiliser
des directives noindex ou la protéger par un mot de passe.
28. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants
(robots.txt, sitemaps)
Fichiers robot.txt
J'utilise un service d'hébergement de site
Si vous utilisez un service d'hébergement de site Web, tel
que Wix, Drupal ou Blogger, il n'est pas toujours nécessaire
(ou possible) de modifier directement le fichier robots.txt.
Au lieu de cela, un paramètre de recherche ou un autre
mécanisme est mis à votre disposition pour indiquer aux
moteurs de recherche s'ils peuvent ou non explorer votre
page.
Pour déterminer si votre page a été explorée par Google,
recherchez son URL dans Google.
29. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants
(robots.txt, sitemaps)
Fichiers robot.txt
Comprendre les limites du fichier robots.txt
Avant de créer ou de modifier un fichier robots.txt, vous
devez connaître les limites liées à cette méthode de blocage
des URL. Il est parfois possible d'envisager d'autres solutions
pour vous assurer que vos URL sont introuvables sur le Web.
• Les directives robots.txt ne sont pas forcément compatibles avec tous les
moteurs de recherche.
Les instructions des fichiers robots.txt ne peuvent pas obliger
le robot d'exploration à respecter les règles de votre site. Il
appartient au robot d'exploration de s'y conformer.
Googlebot et les autres robots d'exploration sérieux
respectent les instructions des fichiers robots.txt, mais il est
possible que d'autres robots ne le fassent pas
30. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers robot.txt
• Les robots d'exploration peuvent interpréter la syntaxe de différentes façons
Même si les robots d'exploration sérieux suivent les instructions du fichier robots.txt,
tous ne les interprètent pas forcément de la même façon. Nous vous recommandons
de vous renseigner sur le sujet, car certains robots pourraient ne pas comprendre
certaines instructions.
• Une page bloquée par un robot peut tout de même être indexée si d'autres sites
renvoient vers elle
Nous n'explorerons ni n'indexerons pas le contenu bloqué par le fichier robots.txt,
mais nous pouvons toujours trouver et indexer une URL non autorisée si elle est
référencée ailleurs sur le Web. Par conséquent, l'adresse URL, et potentiellement
d'autres informations accessibles au public, comme le texte d'ancrage dans les liens
vers la page, peuvent continuer de figurer dans les résultats de recherche Google.
31. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers robot.txt
Tester si une page est bloquée par un fichier robots.txt
Vous pouvez tester si une page ou une ressource est bloquée par une règle
robots.txt.
Pour déterminer si une page est bloquée par une directive noindex, utilisez l'Outil
d'inspection d'URL.
Remarque : La combinaison de plusieurs directives d'exploration et d'indexation
risque de créer des conflits. Découvrez comment configurer correctement ces
directives dans la documentation Google Développer.
32. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers robot.txt
User-agent: *
Disallow: /a-propos-de-nous/
Disallow: /faq/
Disallow: /news/
Allow: /nos-services/
User-agent: *
Disallow: /categorie-*
Allow: /categorie-electromenager/mixeurs/
33. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt,
sitemaps)
Fichiers Sitmap
• Qu’est-ce qu’un fichier sitemap.xml ?
Le sitemap est un plan de site conçu spécifiquement pour les
moteurs de recherche. Il permet de lister les contenus stratégiques
d’un site (par exemple, les articles, les pages clés, etc).
Contrairement à un plan de site destiné aux visiteurs « humains », le
sitemap est écrit dans un langage informatique spécifique, le XML.
On peut avoir plusieurs sitemaps : des sitemaps qui répertorient les
contenus en fonction de leur date de publication, de leur
thématique, des sitemaps spécifiques pour les vidéos, pour faire
apparaître ses contenus sur Google Actualités, pour répertorier ses
images…
34. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt,
sitemaps)
Fichiers Sitmap
• Quel rôle joue le sitemap en référencement naturel ?
On peut s’interroger sur le rôle du sitemap à plusieurs niveaux.
Faciliter l’accès aux contenus
Les moteurs de recherche passent leur temps à explorer le web en
quête de nouvelles pages, afin de proposer aux internautes des
contenus intéressants, qualitatifs, pertinents. Ils le font sans qu’on
ait besoin de le leur demander.
Quand un site web est bien conçu, un moteur de recherche accède
donc spontanément à l’ensemble des contenus : il n’y pas de pages
orphelines, les articles sont accessibles en 1 à 3 clics au lieu d’être
enfouis dans les profondeurs du site… et en théorie, le sitemap a
donc un intérêt assez limité.
35. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt,
sitemaps)
Fichiers Sitmap
• Quel rôle joue le sitemap en référencement naturel ?
Mais en étant réaliste, nombreux sont les sites qui ont des
problèmes d’architecture. Plus un site est gros, plus il est complexe
de bien structurer les contenus pour qu’ils soient tous faciles
d’accès. Le sitemap joue alors souvent un rôle de « palliatif » : il
crée une porte d’entrée sur vos contenus et peut aider Google & co
à repérer plus rapidement vos nouvelles pages. Puisque l’outil
existe, autant l’utiliser !
On pourrait comparer le sitemap.xml à un GPS : quand une route est
bien fléchée, le GPS vous sert surtout de « roue de secours » si vous
avez un doute sur le trajet. En l’absence de signalisation, le GPS
devient votre premier allié pour trouver votre chemin.
36. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Sitemap et positionnement
Le sitemap n’influe pas sur le positionnement de votre site dans les moteurs de
recherche. Autrement dit, le fait d’avoir un sitemap ne va pas, en soi, vous aider à
doubler vos concurrents sur Google ;)
Le sitemap : une consigne, pas un ordre
Il faut percevoir le fichier sitemap comme une consigne, un conseil que vous
donnez aux moteurs : « ces pages sont importantes pour mon site, ne les négligez
pas ». C’est un indicateur parmi d’autres : quand vous mettez une page dans le
menu de votre site, que vous créez des liens vers un article précis, ce sont aussi
des manières de dire au moteur de recherche qu’il faut y accorder de
l’importance.
37. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Sitemap et positionnement
Ensuite, le moteur de recherche conserve son libre-arbitre : il peut aller consulter
les pages ou non, il peut choisir de les inclure dans son index ou non. Il prend
cette décision parce qu’il estime que la page est suffisamment intéressante et
pertinente pour être répertoriée dans sa « base »…
Le sitemap n’est donc pas un « ordre » qui obligerait Google & co à indexer tous
vos contenus.
38. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Fournir à Google des informations en plus
Voici un aperçu de l’un de mes sitemaps :
39. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Fournir à Google des informations en plus
A l’intérieur de chaque sitemap, on peut ensuite spécifier toutes les versions «
locales » d’un même contenu :
40. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Le sitemap : un outil de diagnostic ?
Le sitemap devient intéressant, à mon sens, pour évaluer la « santé » de
l’indexation d’un site. Imaginons un site qui aurait 80 pages dans son sitemap… et
300 pages indexées sur Google. Ou 500 pages dans son sitemap et 150 indexées
sur Google. Ça laisse entendre qu’il y a un problème de compréhension entre le
site et Google : vous considérez comme importants des contenus que Google
préfère ignorer… ou, à l’inverse, Google indexe des contenus qui ne vous
semblent pas primordiaux.
41. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Le sitemap : un outil de diagnostic ?
En soumettant un sitemap à Google par le biais de Search Console, vous pouvez suivre
l’indexation de vos contenus et détecter ce type de décalage. Souvent, il se produit…
Parce que vous laissez Google indexer des pages qui ne présentent presque pas de
contenu original (les pages des étiquettes sur WordPress, les pages profondes des
catégories, des pages créées par des filtres sur des sites e-commerce par exemple).
Parce que vous avez supprimé des pages que Google n’a pas encore retirées de son
index.
Parce que vous avez créé de nombreux contenus que Google n’a pas encore indexés.
Parce que vous donnez à Google des instructions contradictoires : par exemple, vous
avez mis une page en « noindex » en demandant à Google de ne pas l’indexer… mais
vous la faites figurer dans le sitemap malgré tout.
42. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Le sitemap : un outil de diagnostic ?
Le sitemap peut également donner lieu à des constats intéressants sur le comportement
de Google. Par exemple, si un site crée des sitemaps par thématique ou par date, il peut
identifier ce que le moteur de recherche consulte en priorité. J’utilise le plugin
WordPress Google XML Sitemaps, qui permet de créer des sitemaps par date. Ca permet
de repérer très vite si Google a indexé les contenus ou pas.
43. LES PREREQUIS POUR UN BON REFERENCEMENT
1. Architecture de votre site et fichiers importants (robots.txt, sitemaps)
Fichiers Sitmap
• Comment créer un sitemap ?
La solution idéale est évidemment d’avoir un sitemap qui se met à jour automatiquement à chaque
fois que vous publiez ou que vous mettez à jour un contenu. Sur WordPress, le plugin Yoast SEO
intègre un sitemap par exemple.
J’utilise pour ma part Google XML Sitemaps : son paramétrage par défaut est conçu pour convenir à la
plupart des sites… mais vous pouvez également le modifier, par exemple pour exclure des pages
spécifiques du sitemap (j’exclus mes mentions légales, ma page Contact ou ce genre de contenu sur
lequel je n’ai pas envie que Google « perde son temps »).
On peut également générer un sitemap via un outil tiers mais il ne se mettra pas à jour en temps réel.
Le site XML Sitemaps est une bonne référence.
Ensuite, je vous conseille de soumettre votre sitemap à Google via Search Console (menu Exploration
> Sitemaps puis bouton Ajouter/Tester un sitemap) pour suivre l’indexation des pages.
Il faut également indiquer le lien de votre sitemap dans le fichier robots.txt situé à la racine du site,
en ajoutant ce type de ligne de code à la fin du fichier robots.txt par exemple :
Sitemap: https://www.votresite.com/sitemap.xml
44. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Silo SEO VS cocon sémantique : quelles différences ?
Avant de nous lancer dans l’énumération des étapes pour concevoir un siloing SEO et
un cocon sémantique de qualité, il est indispensable de bien cerner les différences entre
silo thématique et cocon sémantique. Le monde du SEO n’est pas épargné par les abus
de langage : il est très fréquent que ces deux notions soient confondues et interchangées
à outrance. Proches mais pas synonymes pour autant, nous vous proposons de faire le
point sur ces deux concepts pour ne plus jamais les confondre !
Définition du siloing thématique et du siloing sémantique
Tout d’abord, on différencie deux types de siloing donc deux façons d’organiser le
contenu d’un site web. On retrouve le siloing thématique et le siloing sémantique.
La majorité des sites sont construits selon le principe de siloing thématique. Par
exemple, dans le cas d’un site e-commerce, l’organisation en silo sert à déterminer les
catégories parents, les catégories, les sous-catégories, les fiches produits… L’idée est de
construire une architecture logique pour que l’internaute puisse naviguer de façon fluide
et intuitive sur votre site. La hiérarchisation des contenus est pensée avec une vision UX,
pour guider facilement l’internaute à travers votre site.
45. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Silo SEO VS cocon sémantique : quelles différences ?
Quant au siloing sémantique, il révèle une organisation stratégique qui va au-delà du
siloing thématique et qui ne prend plus en compte la logique de navigation de
l’internaute. Ici, c’est bel et bien la compréhension du Googlebot qui est privilégiée. La
hiérarchisation des pages est optimisée pour le parcours du robot qui doit comprendre
aisément de quoi traite votre site.
En bref, le siloing thématique classe des pages et des produits en fonction des besoins de
l’internaute et le siloing sémantique privilégie la compréhension des bots dans une
optique de classement sur Google.
46. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Silo SEO VS cocon sémantique : quelles différences ?
47. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Silo SEO VS cocon sémantique : quelles différences ?
Définition de cocon sémantique
Le cocon sémantique d’un site correspond aux liens contextualisés qui relient les
différentes pages et silos d’un site pour former un univers sémantique cohérent.
Le cocon sémantique se rapproche davantage du maillage interne. L’idée est ici de relier
les pages sémantiquement proches par des liens internes pour alimenter la page cible du
site avec un maximum de jus. Mais aussi pour aider votre visiteur à accéder à des
contenus liés à celui qu’il est en train de consulter.
La construction du cocon sémantique demande un analyse plus poussée que le siloing.
Pourquoi ? Car au-delà de l’étude de la thématique et de l’analyse sémantique, une
étude de marché et un véritable travail de construction des personas est de mise : qui
sont vos cibles, quels sont leurs éléments de langage, quels mots clés utilisent-elles,
quels sont leurs pain points, que recherchent-elles ?
Pour simplifier ces deux notions, retenez que :
le siloing rassemble et hiérarchise les éléments d’un site par thématique ou mots-clés
afin d’aider les internautes et / ou les robots à parcourir le site.
le cocon sémantique relie les pages et articles qui partagent un univers sémantique
commun pour faciliter la navigation de l’utilisateur et lui apporter un maximum
d’informations (articles proches, complémentaires, …) en fonction de sa requête initiale.
48. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Silo SEO VS cocon sémantique : quelles différences ?
49. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Le siloing en SEO : quels avantages ?
Au-delà de ses bénéfices en termes d’organisation et d’optimisation de l’architecture
globale de votre site dûe à sa structure pyramidale, le siloing présente plusieurs
avantages pour votre référencement naturel. Positionner votre site sur des requêtes
ultra-concurrentielles, permettre une meilleure répartition du jus sur vos différentes
pages stratégiques ou encore bénéficier d’une meilleure visibilité sur Google sont autant
d’opportunités permises par le siloing SEO. Comment en tirer partie ?
Se positionner sur une requête concurrentielle grâce au siloing
Renforcer le cocon sémantique de votre site et mettre en place un siloing bien construit
va vous permettre de grappiller de précieuses positions sur des requêtes très
concurrentielles sans beaucoup d’efforts.
Par le biais de la construction de plusieurs silos qui nourrissent une page thématique
cible en jus, vous multipliez vos chances de vous positionner parmi les premiers résultats
sur une requête précise. Bien entendu, une étude précise de vos lexies et métas
mots vous aidera à identifier les requêtes les plus accessibles et à prioriser votre plan
d’action selon vos objectifs.
50. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Le siloing en SEO : quels avantages ?
Maximiser sa visibilité sur Google et attirer plus de trafic
Attirer plus de trafic
Un siloing bien construit facilite nettement le crawl de votre site, et donc l’indexation de
ses différentes pages. Être à même de proposer un site à jour aux internautes joue
largement en faveur de la qualité de l’UX. Et puis, être Google Friendly est toujours un
point positif !
Mais au-delà de cet aspect, un siloing bien construit renforce la structure SEO de votre
site et les pages cibles se positionnent plus facilement sur des critères de recherche
stratégiques. Vos pages profondes sont destinées à se positionner sur des critères de
longue traîne, tandis que vos pages cibles seront boostées par le jus provenant de tous
les liens internes dont elles bénéficient.
Si la technique du siloing consiste essentiellement à relier certaines pages entre elles, elle
implique qu’il faut aussi supprimer certains liens, même s’ils ont une raison d’être.
L’étanchéité des silos prime sur le reste.
51. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Le siloing en SEO : quels avantages ?
Quand faut-il mettre en place une structure en silo ?
Il n’est jamais trop tard pour appliquer à votre site une stratégie de siloing SEO, elle sera
juste différente selon votre situation. Bien sûr, il est plus facile de s’y pencher lors de la
réflexion sur l’arborescence du site. Mais si votre site est déjà à flots et que vous changez
d’orientation marketing, il existe aussi des solutions. Dans le cas d’une pénalité
Google ou lors d’une refonte, la mise en place du siloing est fortement conseillée !
Construire le siloing avant le lancement de votre site
Sans surprise, cette méthode est la plus simple à mettre en place mais aussi la plus
efficace : dès sa mise en ligne, votre site bénéficie d’une structure hyper solide. Ses
différentes catégories et son architecture reposent sur une stratégie de mots
clés préétablie.
Votre site est déjà en ligne et vous souhaitez créer des silos ? Avec un peu de chance,
peut-être que vous avez déjà à moitié fait le travail sans le savoir. Pour le vérifier, un audit
vous permettra d’identifier les différents silos de votre site, et de mettre le doigt sur ceux
qui ne sont pas totalement étanches.
52. LES PREREQUIS POUR UN BON REFERENCEMENT
2. Mise en place de « silo sémantique »
Le siloing en SEO : quels avantages ?
Quand faut-il mettre en place une structure en silo ?
Dans ce schéma, la homepage correspond au rond vert central et les ronds en vert plus
clair sont les catégories / landing pages stratégiques.
Pour chaque rond vert clair, on voit toutes les pages qui y sont rattachées. Les parties
bleus du schéma mettent en avant les pages qui font que le silo n’est pas totalement
étanche.
53. LES PREREQUIS POUR UN BON REFERENCEMENT
3. Implémentation des Rich Snippets
Les snippets sont de petits textes extraits d’un site web et affichés dans les pages des
résultats de recherche. Ils se composent normalement d’un titre, d’une description et
d’une URL. Ils fournissent un aperçu du résultat de recherche et visent à inciter le lecteur
à cliquer sur le lien. Souvent, les moteurs de recherche comme Google utilisent la meta
description de la page cible et le meta titre pour le snippet. Toutefois, Google peut
également "assembler" le snippet à partir des textes de la page elle-même.
Les rich snippets sont une forme plus avancée des snippets et peuvent contenir d’autres
éléments comme des étoiles de notation, des liens, des images, des prix ou encore
d’autres formes d’informations. Ces informations supplémentaires peuvent être mises en
évidence par un formatage spécifique dans le code source et sont présentées dans les
résultats de la recherche. Cela permet aux visiteurs de savoir plus rapidement si le
résultat de la recherche est pertinent pour leur recherche. Les rich snippets peuvent être
utilisés pour augmenter le taux de clics.
Les informations peuvent être formatées d’une certaine façon au sein du code source et
affichées de manière proéminente dans les résultats de recherche. Cela est censé aider
les visiteurs à décider rapidement sur quel résultat cliquer et si les résultats proposés
sont pertinents pour sa recherche. Les snippets enrichis peuvent être utilisés afin
d’augmenter le taux de clics.
54. LES PREREQUIS POUR UN BON REFERENCEMENT
3. Implémentation des Rich Snippets
Ici, deux affichages personnalisés sont présents :
•Le rich snippet Breadcrumb : Il permet de baliser le fil d’Ariane et d’avoir
d’Ariane et d’avoir le chemin de l’url (en vert) représenté avec des chevrons
plutôt que des slash.
•Le rich snippet AggregateRating : Il permet de baliser les avis d’un
les avis d’un produit ou d’un article afin d’afficher la note avec les étoiles.
55. LES PREREQUIS POUR UN BON REFERENCEMENT
4. Optimisation des temps de chargement
9 techniques pour optimiser le temps de chargement de votre site web
Nous savons que la vitesse d’un site est un élément clé de son succès. Voyons à présent
sur quels leviers vous avez la possibilité d’agir pour en améliorer les performances.
1. Un hébergement à la hauteur de vos ambitions
Tarifs peu élevés ne riment pas toujours avec qualité. L’hébergement web n’échappe pas
à la règle.
Vérifier que l’option à laquelle vous avez souscrit correspond aux objectifs de trafic et
de ventes de votre site constitue un bon point de départ.
D’ailleurs, laisser de côté votre serveur mutualisé au profit d’un serveur dédié s’imposera
peut-être pour donner un premier coup de boost à votre site.
2. Des images et des vidéos au régime
Le poids de vos médias (visuels, sonores ou vidéos) constitue le levier le plus simple et le
plus rapide à actionner pour améliorer les performances de votre site.
Si les images, par exemple, sont essentielles, elles peuvent très rapidement se
transformer en fardeau si leur dimension ou leur compression ne sont pas adaptées.
Ce point pourrait faire l’objet d’un article entier mais sachez que des outils permettant de
compresser efficacement les images existent tels que TinyPNG
56.
57. LES PREREQUIS POUR UN BON REFERENCEMENT
4. Optimisation des temps de chargement
3. La compression du HTML et du CSS
Saviez-vous que vous aviez la possibilité de compresser vos fichiers HTML et CSS au sein
d’un fichier de type .zip ?
Cette compression permet aux visiteurs de télécharger jusqu’à 70% de données en moins
et donc de naviguer plus rapidement sur votre site.
Pour activer la compression Gzip et réduire le poids de votre code source, il vous faudra
vous tourner vers votre hébergeur.
4. La minification des fichiers CSS, JS et HTML
La minification des fichiers CSS, JS ou HTML permet de supprimer les caractères inutiles
à la bonne exécution du code tels que la mise en forme du code ou les espaces vides.
De plus, vous pouvez combiner ces fichiers dans des sous-ensembles plus petits afin de
réduire le nombre de requêtes HTTP. Plutôt malin non ?
5. Le squelette de chargement ou skeleton screen
Parce que ce sont les experts qui en parlent le mieux, Fanny Pourcenoux, Head of UX/UI
Design chez Contentsquare, nous explique ce qu’est le skeleton screen :
“Quand la richesse de contenu est clé, il est souvent difficile de la concilier avec un
chargement rapide. En parallèle de l’optimisation des temps de chargement, veillez à en
réduire les signes visibles par l’internaute.
58. LES PREREQUIS POUR UN BON REFERENCEMENT
4. Optimisation des temps de chargement
Pour cela, utilisez un “skeleton screen” qui indique qu’un écran est en train d’être
chargé (page vierge qui se remplit progressivement de contenu avec des formes grises ou
neutres).
Cette technique permet à cet écran d’être perçu au démarrage comme ayant une durée
de chargement plus courte par rapport à un écran vide ou un loader.”
6. La mise en cache des ressources
Le système de mise en cache des ressources part d’un constat simple : pourquoi serait-il
nécessaire de retélécharger les mêmes éléments figés d’un site web (comme les images)
à chaque consultation par l’internaute ?
La mise en cache d’une page web par le navigateur de l’utilisateur permet de stocker
temporairement certains éléments sur son ordinateur ou mobile afin d’accélérer le
chargement de cette page lors d’une prochaine visite.
7. Des redirections réduites au minimum
Si elles constituent un moyen simple et efficace de conduire automatiquement un
internaute d’une page supprimée vers une page active par exemple, les redirections 301
doivent être utilisées avec parcimonie.
En effet, une redirection permanente génèrera toujours une latence supplémentaire
côté utilisateur, indésirable si l’on souhaite optimiser la rapidité de chargement de ses
pages.
59. LES PREREQUIS POUR UN BON REFERENCEMENT
4. Optimisation des temps de chargement
8. Un CDN pour l’international
Si votre site web a une dimension internationale et génère un trafic important, l’usage
d’un CDN (Content Delivery Network) est à considérer.
En effet, la situation géographique de vos visiteurs peut avoir un impact sur la vitesse de
chargement de votre site, surtout pour les internautes les plus éloignés de votre serveur.
Le CDN résout ce problème en redirigeant vos visiteurs vers le serveur le plus proche de
leur lieu de connexion.
Si cette solution est très efficace, sachez toutefois qu’elle est coûteuse.
9. Le Server Side Rendering (SSR)
Coûteux également, le Server Side Rendering (ou rendu côté serveur) permet de créer
les pages du côté du serveur et de les envoyer déjà prêtes au navigateur.
Très utilisé dans les progressive web apps, il permet un chargement beaucoup plus
rapide pour l’internaute et une meilleure prise en compte des ressources Javascript par
les moteurs de recherche.
60. LES PREREQUIS POUR UN BON REFERENCEMENT
5. Optimisation du maillage interne
61. LES PREREQUIS POUR UN BON REFERENCEMENT
6. La duplication de contenu. (Duplicat content interne et externe : Mythe ou Réalité ?)
Contenu dupliqué interne
Le contenu dupliqué interne constitue des doublons présents au sein d’un même site.
Celui-ci peut intervenir lorsqu’il y a un problème de configuration, un problème lié à
l’indexation et au crawl des pages, ou autre. On parlera de duplicate content partiel
lorsqu’une petite portion du site est copié et de duplicate content total lorsque
l’ensemble du site fait doublon.
Contenu dupliqué externe
Le contenu dupliqué externe quant à lui est souvent du contenu volé, réutilisé à
outrance… et qui se trouve sur un autre domaine que le site en question. Le contenu
dupliqué externe est un peu plus difficile à gérer dans le sens où nous n’avons pas
forcément le contrôle sur ce qui a été copié. De plus, les moteurs ne sont pas toujours à
la hauteur pour savoir l’auteur original.
Même si pour beaucoup, tout cela est simplement une mauvaise information ou de
l’ignorance, encore beaucoup de personnes pensent profiter du système en volant du
contenu chez les meilleurs pour ensuite les réutiliser. Malheureusement, aujourd’hui, les
règles ont bien changé et il n’est plus aussi facile de manipuler un moteur de recherche,
surtout en ce qui concerne Google.
62. LES PREREQUIS POUR UN BON REFERENCEMENT
6. La duplication de contenu. (Duplicat content interne et externe : Mythe ou Réalité ?)
Copyscape : outil de détection de contenu plagié
63. LES PREREQUIS POUR UN BON REFERENCEMENT
6. La duplication de contenu. (Duplicat content interne et externe : Mythe ou Réalité ?)
Les dangers du contenu dupliqué
Aujourd’hui, faire trop de contenu dupliqué est sanctionné par les moteurs de recherche.
Google notamment, a sorti un algorithme spécifique qui agit pour filtrer les bons et
mauvais contenus : Google Panda. Celui-ci est greffé au processus d’indexation et analyse
vos pages pour vérifier qu’elles sont de bonne qualité, qu’elles ne sont pas volées, et par
la même occasion… qu’elles ne sont pas dupliquées.
En clair, si Google Panda, en scannant votre site, se rend compte que vous avez un
nombre incalculable de copié-collé, il vous sanctionnera. Ainsi, vous pourrez perdre des
places voir même dans de rare cas vous faire expulser de l’index pour spam.
Autre pénalité chez Google, la pénalité manuelle. Dans Google Webmaster tools, vous
pouvez être notifié comme quoi une pénalité pour Duplicate content a été enregistrée à
votre égard. Celle-ci peut être partielle ou totale. Généralement, cela dépend de la
gravité de la situation.
Ensuite, il existe bien entendu une pénalité psychologique au niveau de vos utilisateurs.
Si ceux-ci se rendent compte que votre site est une usine à duplicate content, ils vous
ignoreront et vous feront une mauvaise réputation. Clairement, vous ne reverrez plus
aussi souvent ces utilisateurs, ils se perdent dans les méandres d’un contenu sans aucun
sens et répétitif.
64. LES PREREQUIS POUR UN BON REFERENCEMENT
6. La duplication de contenu. (Duplicat content interne et externe : Mythe ou Réalité ?)
Les dangers du contenu dupliqué
Enfin, je ne peux pas m’empêcher de vous avertir à propos de la notion de “Negative
SEO”. Si une ou plusieurs personnes volent votre contenu ou réutilisent une bonne partie
de vos contenus sur le web (ce qui fera du duplicate content externe), il peut arriver que
Google vous pénalise. Google ne s’exprime malheureusement pas à ce sujet dans le sens
ou cela semble être une faille dans leur moteur. En effet, le negative SEO, c’est baisser le
référencement d’un site en envoyant des signaux négatifs à Google à propos d’un site.
Cela est d’ailleurs puni par la loi. Ne vous amusez pas à cela.
Identifier le contenu dupliqué
Tout d’abord, il nous faut savoir si nous sommes victimes d’une pénalité et/ou si nous
sommes en présence de duplicate content. Pour se faire, on peut commencer en
regardant notre compte Google Webmaster Tools. En effet, celui-ci indique souvent s’il y
a un problème/une erreur avec votre site. Ainsi, il se peut que vous receviez un message
d’alerte. Votre site peut alors avoir été signalé comme site partiellement ou totalement
spam. Si vous avez cette indication, mieux vaut considérer qu’il va vous falloir vous
pencher sur votre contenu.
Aussi, vous avez la possibilité d’utiliser des outils comme Siteliner, Copyscape, sans parler
de Google.
65. LES PREREQUIS POUR UN BON REFERENCEMENT
6. La duplication de contenu. (Duplicat content interne et externe : Mythe ou Réalité ?)
Les dangers du contenu dupliqué
Siteliner scanne votre site et vous indique votre pourcentage de contenu dupliqué
interne. Cet outil peut aussi vous aider pour comprendre vos contenus et l’architecture
de votre site. On l’utilise pour le Duplicate content interne généralement. À noter que
Siteliner dispose d’une version gratuite et d’une version payante sans limitation du
nombre de pages scanné.
Supprimer le contenu dupliqué interne
Ne pas indexer tous les contenus
Éviter le copier-coller
Mettre en place une balise canonical
Supprimer le contenu dupliqué externe
66. LES PREREQUIS POUR UN BON REFERENCEMENT
6. Redirection 301 et balises canonical
Qu’est-ce qu’une URL canonique ?
Une URL canonique correspond à la version préférée d'un ensemble de pages au contenu
similaire pouvant créer des cas de contenus dupliqués (duplicate content). L'URL
canonique doit être choisie avec soin par le Webmaster du site concerné.
L'ajout de la balise canonique permet aux propriétaires de sites d'identifier les
ensembles de contenu identiques et d'indiquer à Google : "Parmi toutes ces pages dont
le contenu est très similaire, merci de ne prendre en compte dans les résultats de
recherche que cette URL canonique".
Un pratique les URLs dont le code HTML indique une autre URL canonique via cette
balise n'apparaitront jamais dans les résultats de recherche de Google. C'est toujours
l'URL canonique qui sera retenue par les moteurs de recherche.
L’URL canonique permet donc d’éviter les cas de contenu dupliqués (duplicate content)
Qu’est-ce qu’une redirection 301?
La redirection 301 est une arme clé pour votre référencement naturel.
Elle évite notamment de perdre du « jus SEO » quand on change de domaine ou quand
on réalise une refonte de site par exemple et que certaine page changent d’URL ou
disparaissent.
Vous pouvez faire une redirection 301 pour tout un site (cas de changement de nom de
domaine), ou une catégorie (un répertoire), ou une page précise (URL).
67. LES PREREQUIS POUR UN BON REFERENCEMENT
6. Redirection 301 et balises canonical
Quand utiliser une redirection 301?
Il y’a plusieurs cas de figures qui peuvent vous amener à utiliser une redirection 301:
vous changez de nom de domaine,
vous voulez rediriger votre page d’accueil sans « www » vers celle avec « www »,
vous passez d’une version « HTTP » à « HTTPS«
vous modifiez la structure de votre site (ex: des catégories sont fusionnées ensemble),
vous décidez de ré-écrire l’URL de vos pages,
vous fusionnez des contenus ensemble pour éviter le duplicate content,
vous redirigez le trafic provenant de netlinking vers un nouveau contenu,
etc.
Comment Google perçoit les redirections 301?
Une redirection 301 est une indication pour Google que vous avez changé de nom,
d’adresse, de manière définitive.
Vous lui demandez donc, comme le service de réexpédition du courrier de la poste, de
transférer tous les positions SEO existantes que vous avez de l’ancienne adresse à la
nouvelle. Cela peut prendre quelques temps bien sûr (parfois des semaines ou des mois),
mais globalement, cela fonctionne: vous récupérez bien le « jus SEO » et votre
référencement naturel ne doit pas repartir à zéro.
68. LES PREREQUIS POUR UN BON REFERENCEMENT
6. Redirection 301 et balises canonical
Quand utiliser une redirection 301?
Bien évidemment, vous perdez toujours « un peu » de puissance SEO quand vous faites
une redirection 301 (vous en perdez déjà en faisant des liens sortants, alors comment
voulez vous que la redirection 301 soit « moins pire » qu’un lien)…
Comment faire une redirection 301?
Faire sa redirection 301 en modifiant son fichier .htaccess
Pour implémenter vos redirection de cette manière, vous devez forcément avoir accès à
votre serveur et à votre fichier de configuration.
Souvent situé à la racine du site, le fichier .htaccess contrôle les répertoires et les sous-
répertoires du site. Vous y accédez avec un client FTP et pouvez le modifier avec un
éditeur de texte (ex: bloc note de votre ordinateur).
Pour ensuite mettre en place votre redirection, il vous suffit tout simplement d’ajouter
une ligne au fichier .htaccess, Il existe des plugins wordpress pour les redirections.
70. LES PREREQUIS POUR UN BON REFERENCEMENT
6. Prévenir les pénalités Panda
Sur la piste de la pénalité Panda
La volonté de Google est bel et bien d’offrir aux internautes un contenu de qualité. C’est
pour cela qu’il fait la chasse aux mauvais sites et entend purger le web des pratiques
crapuleuses. Pour preuve, dans une démarche constructive, Google propose aux
webmasters un certain nombre de questions pour les aider à faire de bons sites !
LE FILTRE GOOGLE PANDA
Il intègre l’algorithme de Google dans le but de déclasser les sites de mauvaise qualité,
comme les fermes de contenus. Il a donc un impact direct sur le référencement naturel
des sites internet et valorise ceux qui offrent de la qualité et de l’originalité.
Il existe deux types de pénalités Panda, à l’instar des pénalités Pingouin :
La pénalité manuelle qui correspond à une alerte dans l’onglet « Message » du tableau
de bord de l’application Google Webmaster Tools (GWT)
La pénalité algorithmique attribuée à votre insu qu’il vous faudra remarquer par vous-
même
LES DIFFÉRENTS SYMPTÔMES QUI NE TROMPENT PAS
71. LES PREREQUIS POUR UN BON REFERENCEMENT
6. Prévenir les pénalités Panda
Plusieurs phénomènes inexpliqués sur Google vous inquiètent et laissent penser que le
filtre Panda vous a sanctionné.
Ce que vous pouvez constater :
Un recul d’une ou plusieurs pages dans les moteur de recherche
Le déclassement d’une ou plusieurs requêtes
Des visites espacées ou inexistantes du robot
Une mauvaise indexation de vos pages (site : www.site.com)
Il est fort probable qu’une ou plusieurs de vos pratiques n’aient pas plu au filtre Panda.
Pas de panique, les pénalités Panda ne sont pas irréversibles. Il vous reste à remonter la
piste pour comprendre l’origine du problème.
Pourquoi ai-je été touché par une pénalité Panda ?
L’algorithme Google peut être perçu comme le grand méchant du net qui distribue des
pénalités à tour de bras. Il existe une multitude de raisons qui peuvent expliquer votre
condamnation virtuelle.
72. LES PREREQUIS POUR UN BON REFERENCEMENT
6. Prévenir les pénalités Panda
Une pénalité Google Panda peut concerner différents éléments :
La vitesse de chargement des pages est trop longue
La structure interne du site est trop profonde
La sur-optimisation des mots-clés dans les données, métadonnées et images
Le cloacking : fournir un contenu différent au robot et à l’internaute comme du texte
caché écrit noir sur noir par exemple
Les liens cachés : cloacking avec insertion de liens
Les pages satellites : ensemble de pages de qualité médiocre
Les liens footer : abus de liens internes ou externes au sein du footer de votre site
L’IP delivery : contenu adapté à l’IP de l’utilisateur
Le cross-linking : excès de lien sur une page
Le scraping : votre site comporte trop de copié-collé. (Duplicate content)
Sous-domaines multiples : technique pour occuper plusieurs places dans les SERPs sur
une même requête
Les erreurs d’indexation/exploration : votre site comporte trop de page morte ou
inaccessible
73.
74. Fin 2eme partie
Au terme de cette deuxième partie, nous devons comprendre
que pour mieux être plus visible sur le net, nous devons soignez
la qualité de notre contenu, réduire le temps de chargement du
site, optimiser les redirection et éviter la duplication de
contenu