SlideShare une entreprise Scribd logo
1  sur  23
Télécharger pour lire hors ligne
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 1
LIVRE BLANC
SEO
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 2
Sommaire
-0- Rappel du contexte de ce livre blanc Page 3
-1- Les piliers du SEO Page 3
-2- Pilier structurel Page 3
-2-1- Check-list structurelle Page 4
-2-2- Check-list templating Page 6
-3- L’avènement du “Mobile Index First” de Google Page 11
-4- Pilier sémantique Page 13
-5- Pilier notoriété Page 16
-6- Pilier social Page 17
-7- Problématiques émergentes | Innovations Page 18
-8- Monitoring des performances Page 19
-9- Focus sur les outils Page 19
-10- Annexes - Lexique Page 21
-11- Annexes - Interactions SEO UI Page 22
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 3
-0- Rappel du contexte de ce livre blanc
Comprendre et connaître les fondamentaux du SEO.
Comprendre et connaître les évolutions et avancées majeures du SEO.
Afin de compléter ce rappel de contexte, j’ajoute ci-dessous dans les annexes un lexique qui
permettra de mieux comprendre les sujets.
-1- Les piliers du SEO
Nous allons aborder ce livre blanc sur la base des 4 piliers du référencement. Ces 4 piliers
sont intimement liés à l’expérience utilisateur.
- Structure.
- Éditorial.
- Notoriété.
- Engagement social.
-2- Pilier structurel
Un site bien structuré pourra être facilement crawlé et indexé par Google.
Pour résumer, nous observons un entonnoir entre le contenu disponible sur un site, et les
visites provenant de Google sur ce même contenu :
1 - Volume de pages global du site.
=> 2 - Volume de pages crawlées par Google.
==> 3 - Volume de pages indexées par Google.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 4
===> 4 - Volume de pages positionnées sur les listes de résultats Google.
====> 5 - Volume de pages génératrices de trafic et de conversions.
Les pages génératrices de trafic et de conversions depuis Google sont celles qui ont pu être
crawlées et indexées, puis qui ont pu être bien positionnées sur des requêtes qualifiées.
-2-1- Check-list structurelle
Voici ci-dessous les points relatifs à la check-list structurelle à effectuer sur un site lors d’un
audit, ou d’une refonte, ou même d’une création de site.
Robots.txt
Il s'agit d'un fichier .txt qu'on place à la racine du serveur. Il indique aux moteurs de
recherche quelles sont les URL ou les variables d'URL qu'on ne souhaite pas voir crawlées
par les moteurs. Par exemple il s'agira de variables de filtres "order=" qui n'ont aucun
intérêt pour le référencement (il s'agit de cas de contenu dupliqué).
En effet, le filtre order= réorganise uniquement le contenu d’une page en la dupliquant. Les
moteurs n’ont pas besoin de cette deuxième version de page.
Bloquer au crawl les URL sans intérêt pour le SEO permet d’économiser du budget de crawl
et de réinvestir celui-ci sur des zones du site importantes pour le référencement (exemple :
pages listes, pages produits, pages articles etc).
Sitemap.xml
Il s'agit d'un fichier .xml qu'on place à la racine du serveur au même endroit que le fichier
robots.txt. Il a pour objectif de lister l'exhaustivité des URL indexables sur Google. Si la
structure du site est bonne, il n'y a pas d'intérêt à générer ce fichier.
En réalité l'intérêt est de le soumettre à la Search Console afin d'identifier le volume de
pages indexées sur Google versus le volume de pages renseignées dans le fichier
sitemap.xml. Si il y a un gros différentiel entre les deux indicateurs il faudra investiguer.
Temps de chargement de page
Google recommande de faire passer le chargement html d'une page à 200ms. L'ensemble
des éléments d'une page (css, js, médias etc) doit être chargé en 1,5 seconde maximum.
Il est possible d'optimiser les points suivants :
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 5
- Activer la compression des ressources.
- Utiliser les sprite css pour limiter le volume de requêtes serveurs.
- Différer le js.
- Choisir le format approprié aux images.
- Limiter le volume de fichiers css en les regroupant.
- Minifier les fichiers js.
- Éviter les commentaires dan le code.
- Éviter la duplication de fichiers css.
- Utiliser un CDN.
- Investir dans des serveurs plus performants.
- Limiter au possible le volume de requêtes serveurs.
Tester le temps de chargement d'une page.
Migration vers la version https si ce n'est pas encore fait
Google recommande par mesure de sécurité de migrer son site vers la version https. La
raison évoquée est la protection des données. Chrome s'octroie le droit d'afficher un
message de sécurité sur les listes Google si un site non passé en https ne lui parait pas
sécurisé.
A noter toutefois, contrairement à certaines rumeurs que le passage à l'https ne permet pas
de gains de positions sur Google.
La migration vers l'https doit donc répondre à un besoin technique et non référencement.
Gestion de la duplication de contenu
La gestion de la duplication de contenus est très impactant sur un site. En raison de bugs
structurels on peut se retrouver à plus de 80% d'un site massivement dupliqué.
La duplication de contenu revêt différentes formes :
- Présence de variables dynamiques mal gérées dans une URL.
- Bug de gestion d'un ID dans une URL.
- Contenus d'une page dupliqués sur plusieurs pages.
- Balises titre identiques sur plusieurs pages.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 6
La présence massive de contenus dupliqués sur un site peut impacter gravement le budget
de crawl alloué par Google sur un site : Concrètement si un site a 80% de son contenu
dupliqué, le crawl de Google se perdra dans des pages inutiles et c'est le contenu utile du
site qui en pâtira car il ne sera pas crawlé efficacement.
D'où l'intérêt de bloquer dans le robots.txt les URL et variables d'URL qu'on souhaite
bloquer au crawl de Google de telle sorte que celui-ci pourra se concentrer sur les zones
utiles du site.
Lors d’une création de site, il est capital de bien gérer cet aspect.
Analyser les éventuels problèmes de duplication de contenu sur le site.
Gestion des pages 404
Il peut arriver qu'un site comporte de nombreuses pages d'erreurs 404, dû à des bugs et/ou
des problèmes de gestion.
Le premier objectif est de faire en sorte qu'il y en ait le moins possible sur le site en ayant
une gestion rigoureuse de ces erreurs (via notamment le check-up sur la Search Console).
Le second objectif est de faire en sorte que la page 404 ne soit pas une page de sortie du site,
mais plutôt une page d'aiguillage de l'internaute vers d'autres pages du site. Notamment, en
personnalisant la page, et donner envie aux internautes de cliquer sur des liens internes.
-2-2- Check-list templating
Les points ci-dessous concernent l'optimisation des différents éléments existant sur une
page.
Balise Title
La balise title (ou titre) est un élément déterminant d'une page. Si elle est bien qualifiée et
correspond bien au contenu de la page, celle-ci pourra potentiellement sortir dans les listes
de résultats Google.
La balise title doit comporter la requête principale de la page. La balise title et le contenu de
la page doivent correspondre parfaitement, sinon la page perd toute sa pertinence même si
le contenu est de qualité.
Balise description
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 7
On peut dire que la balise description est une extension de la balise titre. On reprendra la
requête de la balise title puis on fera un petit descriptif de deux lignes environ de la page.
Balise Keyword
Cette balise n'est plus prise en compte par les moteurs depuis plusieurs années déjà. Il ne
sert plus à rien de la renseigner.
Au début des années 2000, les référenceurs s'en sont beaucoup servi pour sur-optimiser
leurs pages.
Balise H1
Le H1 correspond au titre d'une page, le titre qui s'affiche en haut de la page. Il correspond à
la requête primaire affichée dans la balise title. Il peut aussi être une déclinaison de la
requête primaire.
Micro-data
Les micro-datas sont très utiles pour segmenter / structurer le contenu d'une page web, et
aider les moteurs à comprendre ce contenu. Il n'aident pas à mieux se positionner sur les
listes de résultats Google, mais peuvent participer au taux de clics sur les listes de résultats
Google.
Les Micro-data sont une syntaxe qui s’adaptent à n‘importe quel contenu (articles, fiches
produits, listes etc).
L’exemple qu’on retrouve souvent est celui des recettes :
Ici on a la note globale, le nombre d’avis, et le temps de cuisson.
La liste complète des microdata est ici.
Attributs Alt
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 8
Les attributs alt correspondent au descriptif d'une image. Par exemple : Sur une image d'un
chat qui boit du lait. L'attribut alt sera "Un chat buvant du lait". Pour un logo l'attribut alt
sera le nom de la société correspondant au logo.
Fil d'Ariane
Le fil d'Ariane est très important sur la page. Il a deux fonctions importantes:
- Guider l'internaute qui arrive sur une page profonde du site dans sa navigation.
- Permettre la présence d'une navigation remontante (pour le linking interne, et pour les
moteurs).
Par ailleurs, on appliquera le Micro-data breadcrumb sur le fil d’Ariane.
Header /footer
Le footer ne doit pas être un doublon du header comme on peut le voir encore sur de
nombreux sites. Le footer a pour objectif d'afficher des liens dits mineurs (sans valeur SEO
forte) : Conditions générales de vente, mentions légales, confidentialité.
Le header a pour objectif d'afficher l'arborescence du site : les liens vers les principales
catégories.
Il peut représenter le premier point d'entrée des moteurs et des internautes.
Gestion de la pagination (pages de listing)
Il existe deux manières d'optimiser l'affichage de la pagination.
- Intégrer les balises rel prev rel next dans la section <head> des pages.
Rel prev : Pour indiquer l'identité de la page précédente.
Rel next : Pour indiquer l'identité de la page suivante.
<link rel="prev" href="http://www.example.com/article-partie1.html">
<link rel="next" href="http://www.example.com/article-partie3.html">
- Donner accès à Google à l'ensemble des pages de pagination dès la page 1. Selon le
volume de pages de pagination, afficher les unités, puis les dizaines. 1 2 3 4 5 6 7 8 9 10 20
30 40 50 60 70 80 90 100 200 300.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 9
Chapô
Le chapô est un petit paragraphe introductif de 2-3 lignes qui donne le ton ou/et un rapide
aperçu du contenu d'une page (article ou liste de résultats). Il est utile au référencement,
car on s’en sert pour apporter de la valeur sémantique à la page.
Contenu éditorial
Le contenu éditorial correspond à l'ensemble des textes affichés sur une page. Sur une page
article, il s'agira de l'article lui-même, sur une page produit, il s'agira du descriptif produit
(ainsi que les avis et commentaires).
Il faut trouver un juste milieu pour afficher le contenu utile au référencement sans gêner
l'expérience de l'utilisateur. Par exemple il est possible d'afficher les contenus secondaires
en bas de page.
Liens internes
Les liens internes servent à naviguer d'une page vers une autre au sein du même site. L'idée
c'est surtout que les liens soient les plus pertinents et cohérents possible par rapport au
contenu de la page de départ.
Il peut s'agir par exemple de liens vers des fiches produits complémentaires, des pages
articles complémentaires, des guides / fiches pratiques complémentaires. On cherche à
rester mesuré par rapport au volume de liens connexes. Tout dépend de la structure et de la
volumétrie du site, mais raisonnablement, on n'irait pas au-delà de 20-30 liens connexes.
Encore une fois, tout dépend de la structure du site.
CTA - Call To Action
Le bouton Call to Action a pour objectif de conduire un internaute à accomplir une action :
commander, s’inscrire à une newsletter etc.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 10
La mise en avant de ce bouton sur la page est très importante. Il convient de produire des
tests pour valider le meilleur emplacement. Voici un exemple de bouton CTA “Ajouter au
panier” efficace :
Indexation des pages
Comme vu ci-dessus, nous n'avons pas forcément intérêt à souhaiter le crawl de l’ensemble
des pages de son site.
Dans l'idéal on ne cherchera à crawler et indexer que les pages qui ont vocation à être
indexables et à générer du trafic. Il s'agira par exemple de pages listes, produits, articles,
home page. Bref, les URL canoniques et les pages 1 en cas de pagination.
Il est toujours intéressant de vérifier le volume de pages indexées via la Search Console ou
via la commande "site:" dans le champ de recherche Google.
Besoins d’une arborescence saine
Pour l’internaute et les moteurs il convient de mettre en place une arborescence claire, et
peu profonde.
Le parcours peut se présenter comme cela :
HP > Univers > Catégorie > Sous-catégorie > Article ou produit.
L’autre point très important est la disponibilité des informations en base de données : Si les
informations sont disponibles, on pourra les traiter en les ajoutant dans des pages existantes
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 11
ou même créer de nouvelles pages. La structuration de la base de données est donc
essentielle avant de créer une nouvelle arborescence.
International
Afin de faciliter la bonne prise en compte des versions linguistiques d’un site, il convient
d’ajouter les balises HrefLang dans la section <head> des pages.
Le support Google : https://support.google.com/webmasters/answer/189077?hl=fr
Exemples :
<link rel="alternate" href="http://example.com/fr-be" hreflang="fr-be"/>
<link rel="alternate" href="http://example.com/fr-ca" hreflang="fr-ca"/>
<link rel="alternate" href="http://example.com/fr-ch" hreflang="fr-ch"/>
Le Hreflang s’applique à la langue et au pays cibles.
-3- L’avènement du “Mobile Index First” de Google
Google commence progressivement sa bascule sur l’index Mobile : jusque maintenant il
indexait la version Desktop par défaut. Désormais c’est la version mobile d’un site qui sera
prise en compte en priorité par Google, d’où l’intérêt de prendre du temps pour bien
peaufiner sa version mobile. Ne pas hésiter à tester l'affichage de la version mobile (la
version RWD est un bon début mais pas suffisant). Entre autres :
Ascenseur latéral.
Taille des lettres et des espaces.
Risque de superposition des éléments.
Google recommande de passer par l’analyse des logs serveurs pour identifier la part de crawl
de Googlebot mobile versus Googlebot classique. En cas de taux de crawl Googlebot mobile
plus fort, on considérerait qu’un site est près pour la bascule Google Mobile Index First.
L'outil de test d'optimisation mobile est ici.
Comment bien se préparer au Mobile Index First
Selon la situation, plusieurs cas de gestion sont envisageables :
► Le site est en Responsive Web Design.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 12
Le design de la page s'adapte à la largeur de l'écran, pas de changement d'URL. Et enfin pas
de détection du type de device nécessaire.
Google recommande d'utiliser un site en version Responsive Web Design. Si cela est possible,
ne pas hésiter à migrer le site mobile vers la version Responsive (plus facile de gérer un site
plutôt que deux).
► Dynamic serving.
Même fonctionnement qu'avec le RWD (Responsive Web Design), sauf que le code source
s'adapte, afin d'alléger la version mobile.
► Le site a une version mobile.
Attention, si la version mobile est moins riche que la version desktop, moins travaillée ou
moins mise à jour, il y a de fortes pertes à prévoir.
Si c'est le cas, prévoir dans ce cas de passer à la version RWD pour ne plus avoir ce
problème de contenu non mis à jour.
► Pas de version mobile ?
En prévoir une très vite.
La nouvelle règle qui s'impose à nous, c'est qu'à partir de maintenant, il faut penser mobile
first, tant en terme de conception de page, qu'en terme d'ergonomie ou d'affichage des
éléments sur la page.
Avoir un site RWD (Responsive Web Design) n'est pas suffisant : il faut corriger les erreurs de
navigation sur mobile, et optimiser la navigation mobile. Il faut communiquer efficacement
avec ses personas, susciter une émotion, répondre efficacement à leurs attentes, fournir
ainsi une offre de service efficace.
Trois critères de classement sur le nouveau Mobile Index First ressortent :
► La vitesse de chargement (d'où le réel besoin d'optimiser le temps de chargement pour
desktop et encore plus sur mobile : les mobinautes sont plus impatients encore que les
internautes).
► L'expérience utilisateur: ergonomie, affichage et hiérarchisation des contenus, navigation,
taille des contenus, facilité de lecture.
► Qualité des contenus.
Points structurels à prendre en compte :
Faire attention que le site mobile soit bien configuré : Sitemap, robots.txt, rattachement à la
Search Console.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 13
Vérifier que la structure de la version mobile est saine: pas de contenu dupliqué, URL
propres, temps de chargement optimisé.
Le balisage de correspondance entre une version desktop une version mobile ne change pas,
même si le mobile devient "dominant" :
Sur la page pour ordinateur http://www.example.com/page-1, ajouter :
[ link rel="alternate" media="only screen and (max-width: 640px)"
href="http://m.example.com/page-1"]
Sur la page mobile http://m.example.com/page-1, l'annotation doit être la suivante : [link
rel="canonical" href="http://www.example.com/page-1">]
Il est obligatoire d'utiliser cette balise rel="canonical" sur l'URL mobile qui renvoie vers la
page pour ordinateur.
Adapter l'affichage au device: entre mobiles, tablettes, phablettes, les tailles de devices sont
nombreuses. La règle reste la même:
Afficher la balise View-Port:
meta name=viewport content="width=device-width, initial-scale=1"
Points templating à prendre en compte
Faire un check des templates : sont-ils SEO-friendly? Fil d'Ariane, Balises méta, Balise H1,
Balises Hn, Micro-data, contenu éditorial, boutons Call To Action, liens internes, versions
/amp.
Gérer les zones cliquables: préférer les boutons aux liens textes, difficilement accessibles
sur mobile.
Chaque élément cliquable aura la taille minimum de 7mm et sera espacé des autres
éléments de 2 mm.
Points compatibilité mobile / desktop à prendre en compte
Valider la compatibilité mobile de la home page et des pages profondes, grâce à l'outil "Test
d’optimisation mobile" (cf lien affiché ci-dessus).
Affichage des contenus entre la version mobile et desktop : Google continuera de prendre
en compte le contenu "caché" de la version desktop.
Les contenus entre mobile et desktop doivent être synchronisés (login par exemple), de telle
sorte que le user peut naviguer entre les deux devices facilement.
Points sur l’utilisabilité mobile à prendre en compte
Avertir le mobinaute des notifications, alertes, mises à jour peut se faire via le canal
haptique (vibreur).
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 14
Limiter si possible l'utilisation du clavier.
Permettre aux mobinautes d'identifier les éléments cliquables.
Les mobiles recèlent de tout un tas de fonctionnalités qui peuvent être utilisées sur le site
mobile.
Adapter au contexte d'utilisation du user: jour ou nuit, bruit ou silence (prévoir des chartes
graphiques différentes).
-4- Pilier éditorial
-4-1- Règles d'écriture pour le web | Story telling
Voici ci-dessous quelques uns des grands principes de la rédaction web :
- Structurer le contenu selon le concept de la pyramide inversée :
- Aller du général au particulier. Donner les éléments essentiels en début de contenu, puis
donner les détails en fin de paragraphe (cf la pyramide inversée ci-dessous).
- Utiliser des phrases courtes.
- Traiter une idée par paragraphe.
- Aérer la mise en page.
- Adapter le style d'écriture à la cible.
- Faire le titre le plus explicite possible.
- Faire attention au fautes d'orthographe et de syntaxe.
- Etre concret.
- Ecrire des contenus utiles.
- Utiliser la voix active.
- Etre positif (le style négatif allonge les phrases).
- Définir en amont ce qu'est sa charte éditoriale web
- Ne pas utiliser de jargon, ni de cliché.
- Hiérarchiser le contenu titre, sous-titres, paragraphes.
- Intégrer des liens dans le contenu.
- Faire le bon choix de mots clés selon l'attente et l'intention de l'internaute.
L'objectif de la rédaction web est d'apporter rapidement la réponse que l'internaute
souhaite sans qu'il ait à chercher lui-même.
Chaque contenu doit avoir une structure claire et précise (introduction, partie 1, partie 2,
partie 3, conclusion).
Voici la règle de la pyramide inversée : du plus important au moins important.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 15
Toujours avoir en tête qu'on rédige pour l'internaute et non pour les moteurs. Il faut donc
que la lecture du contenu soit fluide et aisée. On cherche alors à embarquer l’internaute
dans une démarche de story telling (on raconte une histoire). C’est là aussi où intervient
l’expérience utilisateur : la qualité, la pertinence du contenu va jouer sur le ressenti de
l’utilisateur dans son expérience sur le site.
Quid de la longueur : Quelle longueur pour un article? On peut partir sur un minimum de
900 signes. C'est la règle commune.
Rédiger le contenu qu'on considère comme suffisamment intéressant et crédible pour
l'internaute. On peut faire des tartines de texte qui n'a aucune valeur ajoutée. Rédigez ce
qui vous semble indispensable en premier lieu.
En SEO, on dit qu’il faut du contenu pour être valorisé auprès de Google, au risque de
rédiger un tel volume de contenu sur une page que celui-ci ne sera qu’à moitié lu par les
internautes. Ce n’est pas positif pour l’expérience utilisateur. D’où l’intérêt de trouver un
compromis entre les intérêts SEO et UX.
La bible de l'écriture pour le web est ici.
-4-2- Choix des mots clés
Ecrire du contenu, c’est bien, écrire du contenu qui répond aux besoins des internautes c’est
mieux.
Encore dans de nombreux cas, on voit des acteurs du web rédiger du contenu selon les
requêtes tapées par les internautes.
Je recommande une autre approche : Rédiger du contenu qui répond à un besoin précis de
vos personas, ce qui implique donc de rédiger du contenu pour les internautes et non plus
uniquement pour les moteurs.
C’est ce qu’on appelle l’inbound marketing, dans lequel s’inscrit la stratégie de content
marketing : le fait de faire venir les internautes vers soi via du contenu qualifié.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 16
Une fois le sujet de rédaction ciblé on pourra sélectionner des mots clés plus ou moins
recherchés par les internautes.
- Cette approche implique donc de bien connaitre ses personas.
- Cette approche implique de comprendre l’intention de l’internaute derrière une requête et
de pouvoir y répondre efficacement.
La recherche de mots clés peut être faite via diverses méthodes. Celle que j’utilise et qui
fonctionne généralement bien :
- Sortir les requêtes sur lesquelles se positionnent les concurrents.
- Analyser les requêtes des concurrents et du secteur versus celles sur lesquelles le site cible
est positionné.
- Filtrer et identifier les requêtes sur lesquelles le site cible doit chercher à se positionner via
de la recherche de mots clés.
C’est un travail chronophage mais nécessaire.
Cette recherche sémantique peut aboutir selon les besoins, à la constitution d’un planning
éditorial : c’est à dire qu’on planifie les contenus à rédiger sur la base du choix des requêtes
priorisées.
Les contenus peuvent exister via divers formats :
Articles, fiches conseils, landing pages dédiées, infographies, interviews, sondages.
Ces contenus seront ensuite maillés entre eux, selon leur pertinence.
Une stratégie éditoriale bien ficelée et bien étudiée en amont peut résulter en la
constitution d’un cocon sémantique.
Autour d’une requête dite primaire, l’objectif est de décliner du contenu sur des requêtes
secondaires complémentaires et de linker les contenus ensemble afin de créer une
cohérence sémantique autour d’un sujet. Google comprend bien cet exercice à valeur
ajoutée et valorise ces pages dans ces résultats.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 17
-5- Pilier Notoriété / Popularité
La notoriété s’acquiert via une gestion de contenus efficace et pérenne.
Elle s’acquiert via des back links pointant vers son site. Plus ces back links sont nombreux et
émanant de différentes sources pertinentes plus l’acquisition de notoriété sera forte.
Diverses méthodes d’acquisition de back links existent. Je ne vais pas vous en faire la liste,
mais vous présenter celle qui me semble la plus pérenne, et la plus efficace.
Ce qu’on appelle le linkbait : le fait que naturellement les internautes fassent un lien vers
votre site. Pourquoi? Parce qu’ils auront vu votre contenu, et qu’ils l’auront trouvé pertinent
et répondant à leurs besoins. Ils feront un lien vers cette page.
D’où l’intérêt de créer du contenu ayant de la valeur ajoutée. Il s’agit, à mon sens, de la
manière de créer un cercle vertueux, car ce processus crée de l’engagement entre les
internautes et un site. Les internautes pourront revenir et augmenter le volume de pages
vues dans une session.
Ces contenus peuvent exister sous différentes formes :
■ Infographies.
■ Concours.
■ Sondages.
■ Vidéos.
■ Exclusivités / buzz.
Voici d’autres méthodes d’acquisition de back links (hors linkbait) :
- Achat de back links : Google dit non à cette méthode. Comme toujours au pays de Google,
rien n’est tout blanc ni tout noir, la méthode d’achat de liens est possible, tout dépend de la
manière dont c’est fait. Si les thématiques des deux sites correspondent et que le lien est
inclus dans le contenu éditorial de la page, s’il parait “naturel”, Google devrait l’accepter.
Ce sont des méthodes plus machiavéliques que Google sanctionne via le fameux Panda
(sanction de méthodes de back links ayant pour seul objectif remonter dans les listes
Google). Par exemple : les liens externes vers des sites sans aucun rapport thématique
présents dans le footer.
- Échanges de back links : C’est la méthode la plus répandue. C’est une méthode très
chronophage et qui, selon moi en tout cas, apporte souvent peu de résultats.
Concrètement on peut passer plusieurs semaines / mois à négocier des liens avec un autre
site.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 18
- Créer soi-même des liens via des forums, les communiqués de presse.
Il faut alors utiliser des supports de très bonne qualité.
- Les inscriptions dans les annuaires : On peut encore le faire. A mon sens, l’impact positif
s’avère très limité. Trop limité en tout cas pour y investir du temps.
La meilleure méthode reste la rédaction de contenus qualifiés générant naturellement des
back links vers sa page. Ce qui crée naturellement de la notoriété et de l’engagement.
On peut créer du contenu via des supports externes : rédiger des articles sur d’autres blog,
ou via des sites comme Medium.com.
-6- Pilier Engagement social
Une fois que ce contenu de qualité est rédigé, il faut le faire connaître. Le publier via les
réseaux sociaux : les supports sur lesquels votre site est inscrit et que vous utilisez
régulièrement.
Bien sûr, il faut également un travail de gestion de communauté en aval.
Mais vous pouvez publier vos contenus via vos réseaux : Linkedin, Facebook, Twitter etc. Il
convient de prévoir un planning de publication. Dixit un blog en web marketing
“Tant que vous avez de l’engagement, publiez autant que vous le souhaitez”
Je vous joins le lien vers l’article :
https://www.webmarketing-conseil.fr/frequence-reseaux-sociaux/
Pour résumer, pour animer efficacement sa communauté sans la “fatiguer”:
- 1 publication par jour sur Facebook.
- 3 tweets par jour.
- 5 posts par semaine soit 20 par mois sur Linkedin.
- 1 vidéo Youtube par semaine.
Ce sont des chiffres très théoriques et à confirmer (ou non) selon le marché ou le secteur.
La publication de contenus de qualité sur les réseaux sociaux doit pouvoir générer de l’engagement
via les réactions, les commentaires, les nombres de likes et de partages.
Plus une page crée du partage social plus elle aura de chances de remonter dans les serps Google.
-7- Problématiques émergentes | Innovations
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 19
Recherche Vocale
Ça y est Google Home trône dans le salon, et la recherche vocale également.
Par la voix on pose de vraies questions et plus seulement quelques mots clés dans le champ
de recherche Google.
Le SEO est donc impacté, et doit donc s'adapter à cette nouvelle manière de chercher les
informations.
C'est donc majoritairement du trafic longue traîne qui va être généré et il faudra donc
anticiper le planning éditorial correspondant à cette longue traîne.
-8- Monitoring des performances
Suivre les performances de trafic d’un site est une étape incontournable.
Sur le SEO, on peut suivre le volume de trafic et les conversions provenant de Google sur
une période donnée versus année précédente.
Afin d’analyser les performances, on pourra aussi analyser les logs serveurs, par exemple
après une refonte ou une migration pour comprendre comment se comporte Google sur le
site.
L’objectif étant d’amener Google à crawler les zones “utiles au référencement” du site.
Les analyses des logs sont propres et uniques à chaque site, chaque objectif, car on suivra
des KPI différents à chaque fois.
Dans une approche UX UI, on pourra analyser l’évolution de :
Le volume de conversions.
Le volume d’interactions accomplies.
Le volume de pages vues dans une même sessions.
Le taux de rebond.
Le taux de nouveaux visiteurs.
-9- Focus sur les outils
Crawlers :
Xenu - Screaming Frog - Botify - On Crawl - Google Search Console.
Public concerné : Les développeurs peuvent utiliser ces outils afin de mener des analyses
notamment en pré-production avant la mise en production d’un chantier.
Les marketeurs également, plutôt pour des analyses ponctuelles.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 20
Xenu et Screaming Frog (gratuits) sont des outils qui permettent d’analyser la structure d’un
site. L’outil crawle le site comme le ferait Google, et récupère de nombreuses informations
très utiles comme : la volumétrie de pages (qu’on peut ensuite filtrer par typologies de
pages), les balises title (celles remplies, ou vides, ou dupliquées), les balises h1, les balises
descriptions, les attributs alt, les données noindex.
Botify et Oncrawl (payants) sont des outils Saas très puissants. Ils permettent les analyses
structurelles de sites bien plus poussées que Screaming Frog, en se pluguant à Analytics et
également en mettant en parallèle les analyses de logs (si livrés).
Par exemple avec ces outils on peut comparer le volume de fiches produits disponibles sur le
site versus le volume de fiches produits crawlés par Google, ainsi que le trafic généré par ce
type de page. De fait, si on se rend que 15% seulement des fiches produits sont crawlés sur
le site, dans ce cas il faut investiguer afin de pouvoir proposer des chantiers correctifs
permettant le crawl de l’ensemble des fiches produits.
Search Console est l’outil de Google. Il donne des informations très intéressantes sur le
volume de crawl quotidien de Google, le volume de pages indexées, le volume de pages
renseignées dans le fichier sitemap.xml indexées sur Google. Le volume de liens pointant
vers son site, la bonne intégration des micro-datas, la compatibilité mobile.
Recherche de mots clés :
Keyword Shitter - Semrush - Générateur Google - Ranxplorer - Cocon.se - 1.fr - Answer
the Public - Yooda Insight.
Public ciblé : les rédacteurs, les marketeurs.
Ils sont très intéressants pour découvrir de nouvelles opportunités de requêtes, identifier le
volume de requêtes sur lesquelles se positionnent les concurrents versus notre site. Ils ne
donnent pas de réponses toutes faites, mais sont de très bonnes aides à la prise de décision.
Ranxplorer est assez nouveau, et fait très bien le job sur les requêtes francophones.
Pour chaque requête, il donne le volume de recherches moyen mensuel, le volume de
résultats affichés sur Google correspondant, le CPC moyen, et le niveau de compétitivité.
Il est très utile pour identifier un nouveau champ sémantique à développer, cibler des
requêtes sur lesquelles on est mal positionné. On peut construire son cocon sémantique à
partir de cet outil.
Outils de positionnement :
Yooda Cloud - Ranks.fr - MyPoSEO - Agent Web Ranking.
Public ciblé : les marketeurs.
Il en existe d’autres mais ceux cités sont ceux que je connais le mieux.
La différence d’un outil à un autre est le volume de mots clés audités par mois selon son
budget. Au-delà de cela ils font tous le même travail.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 21
J’ai une préférence pour Yooda Cloud, où le volume de requêtes mensuelles est intéressant.
On peut classer les requêtes par groupes de mots clés, choisir les moteurs et par pays. On a
l’historique de position de chaque mot clé, et on peut ajouter 5 concurrents.
Par ailleurs, Yooda Cloud possède l’outil https://insight.yooda.com/ . Il teste de manière
macro le positionnement d’un site sur plusieurs millions de requêtes, cela nous donne
l’historique mois par mois et on peut comparer le positionnement avec les concurrents.
Outils d’analyse de back links :
Majestic SEO - https://ahrefs.com/ .
Là aussi beaucoup d’outils disponibles, ceux-là sont ceux que je connais le mieux.
-10- Annexes - Lexique
Crawl : Ce sont les robots des moteurs (les spiders) qui analysent le code des pages.
L’objectif est de crawler les pages utiles au référencement (c’est à dire les pages prêtes à
générer du trafic, comme les pages produits, articles ou listes). On parle de crawl inutile,
quand les robots crawlent des pages sans intérêt SEO (pages filtres par exemple). Il faut un
ratio de crawl inutile le plus faible possible. Les robots ont un budget de crawl défini, il faut
donc qu’ils analysent les pages utiles en priorité.
Une page peut être crawlée mais ne sera pas forcément indexée, si le moteur considère
qu’elle est dupliquée par exemple.
Index : Il s’agit du glossaire d’un moteur de recherche. Celui-ci classe les pages selon
différents critères, et notamment le champ sémantique.
Serps : Search Engine Result pages. Il s’agit des listes de résultats d’un moteur de
recherche.
Test utilisateur : C’est une méthode provenant de la conception User Experience. On
soumet un site, une application à un utilisateur (correspondant si possible au persona cible).
On voit comment elle interagit avec l’outil. Cela nous permet ou non de valider un template
de page par exemple. C’est la seule méthode nous permettant de savoir si un outil est
pertinent ou pas pour l’utilisateur final, dans sa conception, son utilité, son utilisabilité.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 22
Back Links : Ce sont des liens externes pointant vers un site, plus ils sont nombreux et de
sources variées et de qualité, mieux c’est.
Googlebot : C’est le robot de Google. Il crawle par défaut les versions desktop de sites.
Googlebot Mobile : C’est le robot de Google dédié au mobile. Il va crawler la version mobile
des sites.
Bouton Call To Action : Par exemple c’est le bouton commander, sur une fiche produit. Ou
n’importe quel bouton appelant à une interaction sur une page. L’objectif est de valoriser
graphiquement ce bouton, afin d’augmenter le volume d’interactions. Derrière ce bouton,
c’est aussi le parcours utilisateur qu’il faut optimiser (page panier par exemple), afin de
limiter au maximum les étapes, et de finaliser l’interaction.
Longue traîne : c’est une requête composée de plusieurs termes, très spécifique, peu voir
pas du tout recherchée. Elle génère un trafic très qualifié.
Panda : C’est un filtre de Google ayant pour objectif de sanctionner les pages affichant un
contenu trop pauvre, ou inexistant, ou dupliqué.
Pingouin : C’est un filtre de Google ayant pour objectif de sanctionner un site affichant des
des liens vers des sites externes de manière massive, dans une optique de gagner des
positions.
Position zéro : Sur une liste de résultats Google, c’est le résultat qui apparait avant le
premier résultat naturel. Google s’octroie le droit de choisir quelle page il souhaite valoriser.
On a le même principe pour de nombreux types de résultats : résultats sportifs, programme
tv, météo.
-11- Annexes - Interactions entre SEO et UI /
Ergonomie
Les principes UI prennent en compte les besoins SEO mais correspondent à un périmètre
bien plus large de design, d’ergonomie, et d’expérience utilisateur.
La vitesse de chargement rentre évidemment en compte, la qualité du contenu, et la qualité
de l’expérience utilisateur :
La pertinence du titre affiché sur les listes Google.
La pertinence des deux ligne de description affichées sur les listes google.
La pertinence du titre (H1) sur la page.
Le vitesse de chargement de la page.
La qualité graphique de la page.
L’harmonie générale de la page + affichage des éléments.
Bouton CTA.
Liens internes.
Le volume de contenu.
Les principes ergonomiques.
Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 23
Le fil d’Ariane + possibilité de naviguer sur d’autres pages du site + affichage du header /
footer.
L’internaute peut-il trouver facilement son information via le header ou le champ de
recherche?
Les interactions de la page : sont-elles claires ? valorisées ? Faciles à accomplir?
Le contenu : Correspond-t-il à l’attente de l’internaute? Est-il suffisant? Fait-il autorité?
Le contenu est-il bien écrit? Sans faute d’orthographe? Le contenu est-il bien disposé?
Les images sur la page correspondent-t-elles aux attentes de l’internaute?
Il faut produire des tests utilisateurs afin de s’assurer de la bonne construction des pages et
des interactions.

Contenu connexe

Tendances

Audit seo-12-2015
Audit seo-12-2015Audit seo-12-2015
Audit seo-12-2015Jose PEREZ
 
20131204 precis du referencement naturel
20131204 precis du referencement naturel20131204 precis du referencement naturel
20131204 precis du referencement naturelceciestmonadressmail
 
Ce Que Hautetfort Fait Pour Votre RéFéRencement
Ce Que Hautetfort Fait Pour Votre RéFéRencementCe Que Hautetfort Fait Pour Votre RéFéRencement
Ce Que Hautetfort Fait Pour Votre RéFéRencementalexandra.rigaud
 
Drupal SEO - Optimiser son site
Drupal SEO - Optimiser son siteDrupal SEO - Optimiser son site
Drupal SEO - Optimiser son siteStéphane ARRAMI
 
Guide pratique du référencement - La méthode bee coz
Guide pratique du référencement - La méthode bee cozGuide pratique du référencement - La méthode bee coz
Guide pratique du référencement - La méthode bee cozEdwin Stephenson
 
Référencement naturel - SEO - Points principaux
Référencement naturel - SEO - Points principauxRéférencement naturel - SEO - Points principaux
Référencement naturel - SEO - Points principauxNadège tétaz
 
Optimiser son seo avec google tag manager
Optimiser son seo avec google tag managerOptimiser son seo avec google tag manager
Optimiser son seo avec google tag managerMadeline Pinthon
 
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team Web
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team WebComprendre le Référencement Naturel et améliorer sa visibilité - La Team Web
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team WebLa Team Web
 
Seo 10 clés pour plaire à Google
Seo   10 clés pour plaire à GoogleSeo   10 clés pour plaire à Google
Seo 10 clés pour plaire à GoogleKeyweo
 
Referencement : indexation et optimisation technique (SEO)
Referencement : indexation et optimisation technique (SEO)Referencement : indexation et optimisation technique (SEO)
Referencement : indexation et optimisation technique (SEO)JCD srcmontbeliard
 
SEO: Faut il migrer vos sites en https ?
SEO: Faut il migrer vos sites en https ?SEO: Faut il migrer vos sites en https ?
SEO: Faut il migrer vos sites en https ?Camille Thomas
 
Recherche & SEO / Aujourd'hui & Demain QueDuWeb
Recherche & SEO / Aujourd'hui & Demain QueDuWebRecherche & SEO / Aujourd'hui & Demain QueDuWeb
Recherche & SEO / Aujourd'hui & Demain QueDuWebAysun Akarsu
 
Formation SEO & PCC - Agadir Maroc
Formation SEO & PCC - Agadir MarocFormation SEO & PCC - Agadir Maroc
Formation SEO & PCC - Agadir Marocydebbagh
 
Indexation et optimisation technique - version 2010
Indexation et optimisation technique - version 2010Indexation et optimisation technique - version 2010
Indexation et optimisation technique - version 2010JCDomenget
 
Utilisation avancée d'un crawler - SEO Camp'us 2015
Utilisation avancée d'un crawler - SEO Camp'us 2015Utilisation avancée d'un crawler - SEO Camp'us 2015
Utilisation avancée d'un crawler - SEO Camp'us 2015Philippe YONNET
 
SEO & Wordpress
SEO & WordpressSEO & Wordpress
SEO & WordpressCCI Yonne
 

Tendances (20)

Audit seo-12-2015
Audit seo-12-2015Audit seo-12-2015
Audit seo-12-2015
 
20131204 precis du referencement naturel
20131204 precis du referencement naturel20131204 precis du referencement naturel
20131204 precis du referencement naturel
 
Ce Que Hautetfort Fait Pour Votre RéFéRencement
Ce Que Hautetfort Fait Pour Votre RéFéRencementCe Que Hautetfort Fait Pour Votre RéFéRencement
Ce Que Hautetfort Fait Pour Votre RéFéRencement
 
Drupal SEO - Optimiser son site
Drupal SEO - Optimiser son siteDrupal SEO - Optimiser son site
Drupal SEO - Optimiser son site
 
Guide pratique du référencement - La méthode bee coz
Guide pratique du référencement - La méthode bee cozGuide pratique du référencement - La méthode bee coz
Guide pratique du référencement - La méthode bee coz
 
Référencement naturel - SEO - Points principaux
Référencement naturel - SEO - Points principauxRéférencement naturel - SEO - Points principaux
Référencement naturel - SEO - Points principaux
 
Optimiser son seo avec google tag manager
Optimiser son seo avec google tag managerOptimiser son seo avec google tag manager
Optimiser son seo avec google tag manager
 
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team Web
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team WebComprendre le Référencement Naturel et améliorer sa visibilité - La Team Web
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team Web
 
referencement en image
referencement en imagereferencement en image
referencement en image
 
Seo 10 clés pour plaire à Google
Seo   10 clés pour plaire à GoogleSeo   10 clés pour plaire à Google
Seo 10 clés pour plaire à Google
 
Referencement : indexation et optimisation technique (SEO)
Referencement : indexation et optimisation technique (SEO)Referencement : indexation et optimisation technique (SEO)
Referencement : indexation et optimisation technique (SEO)
 
SEO: Faut il migrer vos sites en https ?
SEO: Faut il migrer vos sites en https ?SEO: Faut il migrer vos sites en https ?
SEO: Faut il migrer vos sites en https ?
 
Recherche & SEO / Aujourd'hui & Demain QueDuWeb
Recherche & SEO / Aujourd'hui & Demain QueDuWebRecherche & SEO / Aujourd'hui & Demain QueDuWeb
Recherche & SEO / Aujourd'hui & Demain QueDuWeb
 
Formation SEO & PCC - Agadir Maroc
Formation SEO & PCC - Agadir MarocFormation SEO & PCC - Agadir Maroc
Formation SEO & PCC - Agadir Maroc
 
Indexation et optimisation technique - version 2010
Indexation et optimisation technique - version 2010Indexation et optimisation technique - version 2010
Indexation et optimisation technique - version 2010
 
Outils et KPI utiles à la Migration SEO
Outils et KPI utiles à la Migration SEOOutils et KPI utiles à la Migration SEO
Outils et KPI utiles à la Migration SEO
 
Le PageRank est mort, vive le TrustRank !
Le PageRank est mort, vive le TrustRank !Le PageRank est mort, vive le TrustRank !
Le PageRank est mort, vive le TrustRank !
 
Utilisation avancée d'un crawler - SEO Camp'us 2015
Utilisation avancée d'un crawler - SEO Camp'us 2015Utilisation avancée d'un crawler - SEO Camp'us 2015
Utilisation avancée d'un crawler - SEO Camp'us 2015
 
SEARCH Y - Alexis Rylko - SEO sur Yandex
SEARCH Y - Alexis Rylko -  SEO sur YandexSEARCH Y - Alexis Rylko -  SEO sur Yandex
SEARCH Y - Alexis Rylko - SEO sur Yandex
 
SEO & Wordpress
SEO & WordpressSEO & Wordpress
SEO & Wordpress
 

Similaire à Livre blanc de sensibilisation au SEO

Atelier de sensibilisation au SEO
Atelier de sensibilisation au SEOAtelier de sensibilisation au SEO
Atelier de sensibilisation au SEOKseo Conseil
 
Le SEO en 2021 : à quoi faut-il s'attendre ?
Le SEO en 2021 : à quoi faut-il s'attendre ?Le SEO en 2021 : à quoi faut-il s'attendre ?
Le SEO en 2021 : à quoi faut-il s'attendre ?Semrush France
 
Moteurs de recherche et optimisation de classement
Moteurs de recherche et optimisation de classementMoteurs de recherche et optimisation de classement
Moteurs de recherche et optimisation de classementGuillaume Kulakowski
 
Choisir une solution e commerce compatible seo : quelle plateforme vous perme...
Choisir une solution e commerce compatible seo : quelle plateforme vous perme...Choisir une solution e commerce compatible seo : quelle plateforme vous perme...
Choisir une solution e commerce compatible seo : quelle plateforme vous perme...Philippe YONNET
 
Les 3 piliers du référencement sur wordpress
Les 3 piliers du référencement sur wordpress Les 3 piliers du référencement sur wordpress
Les 3 piliers du référencement sur wordpress agencecsv
 
Being Googlebot - de nouvelles clés pour optimiser le SEO
Being Googlebot - de nouvelles clés pour optimiser le SEOBeing Googlebot - de nouvelles clés pour optimiser le SEO
Being Googlebot - de nouvelles clés pour optimiser le SEODigimood - Agence SEO / SEA
 
Référencement et analyse site internet doc de travail
Référencement et analyse site internet doc de travailRéférencement et analyse site internet doc de travail
Référencement et analyse site internet doc de travailSéverine Alix
 
03 seo indexation et optimisation technique
03 seo    indexation et optimisation technique03 seo    indexation et optimisation technique
03 seo indexation et optimisation techniqueJCDomenget
 
Les points d'Audit pour un site SEO Friendly
Les points d'Audit pour un site SEO FriendlyLes points d'Audit pour un site SEO Friendly
Les points d'Audit pour un site SEO FriendlyBrioude Internet
 
Screaming frog - l'outil ne fait pas l'artisan
Screaming frog - l'outil ne fait pas l'artisanScreaming frog - l'outil ne fait pas l'artisan
Screaming frog - l'outil ne fait pas l'artisanAymeric Bouillat
 
SEO Referencement naturel gratuit Google
 SEO Referencement naturel gratuit Google SEO Referencement naturel gratuit Google
SEO Referencement naturel gratuit GoogleAXIZ eBusiness
 
Référencement et analyse de sites Internet
Référencement et analyse de sites InternetRéférencement et analyse de sites Internet
Référencement et analyse de sites InternetCEFAC
 
Case Study: Comment augumenter le trafic organique de 60% en 3 mois
Case Study: Comment augumenter le trafic organique de 60% en 3 moisCase Study: Comment augumenter le trafic organique de 60% en 3 mois
Case Study: Comment augumenter le trafic organique de 60% en 3 moisMajed Ayari
 
Conduire un audit de referencement naturel (SEO)
Conduire un audit de referencement naturel (SEO)Conduire un audit de referencement naturel (SEO)
Conduire un audit de referencement naturel (SEO)Comsatis
 
6 facteurs d'amélioration du seo
6 facteurs d'amélioration du seo6 facteurs d'amélioration du seo
6 facteurs d'amélioration du seoSquare37
 
On page comment_augmenter_seo-trafic_30_jours
On page comment_augmenter_seo-trafic_30_joursOn page comment_augmenter_seo-trafic_30_jours
On page comment_augmenter_seo-trafic_30_joursLotfi Ben Moussa
 
référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...
référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...
référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...supporticom
 
Flattez google gagnez_des_visiteurs
Flattez google gagnez_des_visiteursFlattez google gagnez_des_visiteurs
Flattez google gagnez_des_visiteursTacTicWEB
 

Similaire à Livre blanc de sensibilisation au SEO (20)

SEO Référencement
SEO RéférencementSEO Référencement
SEO Référencement
 
Atelier de sensibilisation au SEO
Atelier de sensibilisation au SEOAtelier de sensibilisation au SEO
Atelier de sensibilisation au SEO
 
Le SEO en 2021 : à quoi faut-il s'attendre ?
Le SEO en 2021 : à quoi faut-il s'attendre ?Le SEO en 2021 : à quoi faut-il s'attendre ?
Le SEO en 2021 : à quoi faut-il s'attendre ?
 
Moteurs de recherche et optimisation de classement
Moteurs de recherche et optimisation de classementMoteurs de recherche et optimisation de classement
Moteurs de recherche et optimisation de classement
 
Choisir une solution e commerce compatible seo : quelle plateforme vous perme...
Choisir une solution e commerce compatible seo : quelle plateforme vous perme...Choisir une solution e commerce compatible seo : quelle plateforme vous perme...
Choisir une solution e commerce compatible seo : quelle plateforme vous perme...
 
Les 3 piliers du référencement sur wordpress
Les 3 piliers du référencement sur wordpress Les 3 piliers du référencement sur wordpress
Les 3 piliers du référencement sur wordpress
 
Being Googlebot - de nouvelles clés pour optimiser le SEO
Being Googlebot - de nouvelles clés pour optimiser le SEOBeing Googlebot - de nouvelles clés pour optimiser le SEO
Being Googlebot - de nouvelles clés pour optimiser le SEO
 
Référencement et analyse site internet doc de travail
Référencement et analyse site internet doc de travailRéférencement et analyse site internet doc de travail
Référencement et analyse site internet doc de travail
 
Se faire connaitre sur le web
Se faire connaitre sur le webSe faire connaitre sur le web
Se faire connaitre sur le web
 
03 seo indexation et optimisation technique
03 seo    indexation et optimisation technique03 seo    indexation et optimisation technique
03 seo indexation et optimisation technique
 
Les points d'Audit pour un site SEO Friendly
Les points d'Audit pour un site SEO FriendlyLes points d'Audit pour un site SEO Friendly
Les points d'Audit pour un site SEO Friendly
 
Screaming frog - l'outil ne fait pas l'artisan
Screaming frog - l'outil ne fait pas l'artisanScreaming frog - l'outil ne fait pas l'artisan
Screaming frog - l'outil ne fait pas l'artisan
 
SEO Referencement naturel gratuit Google
 SEO Referencement naturel gratuit Google SEO Referencement naturel gratuit Google
SEO Referencement naturel gratuit Google
 
Référencement et analyse de sites Internet
Référencement et analyse de sites InternetRéférencement et analyse de sites Internet
Référencement et analyse de sites Internet
 
Case Study: Comment augumenter le trafic organique de 60% en 3 mois
Case Study: Comment augumenter le trafic organique de 60% en 3 moisCase Study: Comment augumenter le trafic organique de 60% en 3 mois
Case Study: Comment augumenter le trafic organique de 60% en 3 mois
 
Conduire un audit de referencement naturel (SEO)
Conduire un audit de referencement naturel (SEO)Conduire un audit de referencement naturel (SEO)
Conduire un audit de referencement naturel (SEO)
 
6 facteurs d'amélioration du seo
6 facteurs d'amélioration du seo6 facteurs d'amélioration du seo
6 facteurs d'amélioration du seo
 
On page comment_augmenter_seo-trafic_30_jours
On page comment_augmenter_seo-trafic_30_joursOn page comment_augmenter_seo-trafic_30_jours
On page comment_augmenter_seo-trafic_30_jours
 
référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...
référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...
référencement naturel (SEO) : comment améliorer sa visibilité sur les moteurs...
 
Flattez google gagnez_des_visiteurs
Flattez google gagnez_des_visiteursFlattez google gagnez_des_visiteurs
Flattez google gagnez_des_visiteurs
 

Livre blanc de sensibilisation au SEO

  • 1. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 1 LIVRE BLANC SEO
  • 2. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 2 Sommaire -0- Rappel du contexte de ce livre blanc Page 3 -1- Les piliers du SEO Page 3 -2- Pilier structurel Page 3 -2-1- Check-list structurelle Page 4 -2-2- Check-list templating Page 6 -3- L’avènement du “Mobile Index First” de Google Page 11 -4- Pilier sémantique Page 13 -5- Pilier notoriété Page 16 -6- Pilier social Page 17 -7- Problématiques émergentes | Innovations Page 18 -8- Monitoring des performances Page 19 -9- Focus sur les outils Page 19 -10- Annexes - Lexique Page 21 -11- Annexes - Interactions SEO UI Page 22
  • 3. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 3 -0- Rappel du contexte de ce livre blanc Comprendre et connaître les fondamentaux du SEO. Comprendre et connaître les évolutions et avancées majeures du SEO. Afin de compléter ce rappel de contexte, j’ajoute ci-dessous dans les annexes un lexique qui permettra de mieux comprendre les sujets. -1- Les piliers du SEO Nous allons aborder ce livre blanc sur la base des 4 piliers du référencement. Ces 4 piliers sont intimement liés à l’expérience utilisateur. - Structure. - Éditorial. - Notoriété. - Engagement social. -2- Pilier structurel Un site bien structuré pourra être facilement crawlé et indexé par Google. Pour résumer, nous observons un entonnoir entre le contenu disponible sur un site, et les visites provenant de Google sur ce même contenu : 1 - Volume de pages global du site. => 2 - Volume de pages crawlées par Google. ==> 3 - Volume de pages indexées par Google.
  • 4. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 4 ===> 4 - Volume de pages positionnées sur les listes de résultats Google. ====> 5 - Volume de pages génératrices de trafic et de conversions. Les pages génératrices de trafic et de conversions depuis Google sont celles qui ont pu être crawlées et indexées, puis qui ont pu être bien positionnées sur des requêtes qualifiées. -2-1- Check-list structurelle Voici ci-dessous les points relatifs à la check-list structurelle à effectuer sur un site lors d’un audit, ou d’une refonte, ou même d’une création de site. Robots.txt Il s'agit d'un fichier .txt qu'on place à la racine du serveur. Il indique aux moteurs de recherche quelles sont les URL ou les variables d'URL qu'on ne souhaite pas voir crawlées par les moteurs. Par exemple il s'agira de variables de filtres "order=" qui n'ont aucun intérêt pour le référencement (il s'agit de cas de contenu dupliqué). En effet, le filtre order= réorganise uniquement le contenu d’une page en la dupliquant. Les moteurs n’ont pas besoin de cette deuxième version de page. Bloquer au crawl les URL sans intérêt pour le SEO permet d’économiser du budget de crawl et de réinvestir celui-ci sur des zones du site importantes pour le référencement (exemple : pages listes, pages produits, pages articles etc). Sitemap.xml Il s'agit d'un fichier .xml qu'on place à la racine du serveur au même endroit que le fichier robots.txt. Il a pour objectif de lister l'exhaustivité des URL indexables sur Google. Si la structure du site est bonne, il n'y a pas d'intérêt à générer ce fichier. En réalité l'intérêt est de le soumettre à la Search Console afin d'identifier le volume de pages indexées sur Google versus le volume de pages renseignées dans le fichier sitemap.xml. Si il y a un gros différentiel entre les deux indicateurs il faudra investiguer. Temps de chargement de page Google recommande de faire passer le chargement html d'une page à 200ms. L'ensemble des éléments d'une page (css, js, médias etc) doit être chargé en 1,5 seconde maximum. Il est possible d'optimiser les points suivants :
  • 5. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 5 - Activer la compression des ressources. - Utiliser les sprite css pour limiter le volume de requêtes serveurs. - Différer le js. - Choisir le format approprié aux images. - Limiter le volume de fichiers css en les regroupant. - Minifier les fichiers js. - Éviter les commentaires dan le code. - Éviter la duplication de fichiers css. - Utiliser un CDN. - Investir dans des serveurs plus performants. - Limiter au possible le volume de requêtes serveurs. Tester le temps de chargement d'une page. Migration vers la version https si ce n'est pas encore fait Google recommande par mesure de sécurité de migrer son site vers la version https. La raison évoquée est la protection des données. Chrome s'octroie le droit d'afficher un message de sécurité sur les listes Google si un site non passé en https ne lui parait pas sécurisé. A noter toutefois, contrairement à certaines rumeurs que le passage à l'https ne permet pas de gains de positions sur Google. La migration vers l'https doit donc répondre à un besoin technique et non référencement. Gestion de la duplication de contenu La gestion de la duplication de contenus est très impactant sur un site. En raison de bugs structurels on peut se retrouver à plus de 80% d'un site massivement dupliqué. La duplication de contenu revêt différentes formes : - Présence de variables dynamiques mal gérées dans une URL. - Bug de gestion d'un ID dans une URL. - Contenus d'une page dupliqués sur plusieurs pages. - Balises titre identiques sur plusieurs pages.
  • 6. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 6 La présence massive de contenus dupliqués sur un site peut impacter gravement le budget de crawl alloué par Google sur un site : Concrètement si un site a 80% de son contenu dupliqué, le crawl de Google se perdra dans des pages inutiles et c'est le contenu utile du site qui en pâtira car il ne sera pas crawlé efficacement. D'où l'intérêt de bloquer dans le robots.txt les URL et variables d'URL qu'on souhaite bloquer au crawl de Google de telle sorte que celui-ci pourra se concentrer sur les zones utiles du site. Lors d’une création de site, il est capital de bien gérer cet aspect. Analyser les éventuels problèmes de duplication de contenu sur le site. Gestion des pages 404 Il peut arriver qu'un site comporte de nombreuses pages d'erreurs 404, dû à des bugs et/ou des problèmes de gestion. Le premier objectif est de faire en sorte qu'il y en ait le moins possible sur le site en ayant une gestion rigoureuse de ces erreurs (via notamment le check-up sur la Search Console). Le second objectif est de faire en sorte que la page 404 ne soit pas une page de sortie du site, mais plutôt une page d'aiguillage de l'internaute vers d'autres pages du site. Notamment, en personnalisant la page, et donner envie aux internautes de cliquer sur des liens internes. -2-2- Check-list templating Les points ci-dessous concernent l'optimisation des différents éléments existant sur une page. Balise Title La balise title (ou titre) est un élément déterminant d'une page. Si elle est bien qualifiée et correspond bien au contenu de la page, celle-ci pourra potentiellement sortir dans les listes de résultats Google. La balise title doit comporter la requête principale de la page. La balise title et le contenu de la page doivent correspondre parfaitement, sinon la page perd toute sa pertinence même si le contenu est de qualité. Balise description
  • 7. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 7 On peut dire que la balise description est une extension de la balise titre. On reprendra la requête de la balise title puis on fera un petit descriptif de deux lignes environ de la page. Balise Keyword Cette balise n'est plus prise en compte par les moteurs depuis plusieurs années déjà. Il ne sert plus à rien de la renseigner. Au début des années 2000, les référenceurs s'en sont beaucoup servi pour sur-optimiser leurs pages. Balise H1 Le H1 correspond au titre d'une page, le titre qui s'affiche en haut de la page. Il correspond à la requête primaire affichée dans la balise title. Il peut aussi être une déclinaison de la requête primaire. Micro-data Les micro-datas sont très utiles pour segmenter / structurer le contenu d'une page web, et aider les moteurs à comprendre ce contenu. Il n'aident pas à mieux se positionner sur les listes de résultats Google, mais peuvent participer au taux de clics sur les listes de résultats Google. Les Micro-data sont une syntaxe qui s’adaptent à n‘importe quel contenu (articles, fiches produits, listes etc). L’exemple qu’on retrouve souvent est celui des recettes : Ici on a la note globale, le nombre d’avis, et le temps de cuisson. La liste complète des microdata est ici. Attributs Alt
  • 8. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 8 Les attributs alt correspondent au descriptif d'une image. Par exemple : Sur une image d'un chat qui boit du lait. L'attribut alt sera "Un chat buvant du lait". Pour un logo l'attribut alt sera le nom de la société correspondant au logo. Fil d'Ariane Le fil d'Ariane est très important sur la page. Il a deux fonctions importantes: - Guider l'internaute qui arrive sur une page profonde du site dans sa navigation. - Permettre la présence d'une navigation remontante (pour le linking interne, et pour les moteurs). Par ailleurs, on appliquera le Micro-data breadcrumb sur le fil d’Ariane. Header /footer Le footer ne doit pas être un doublon du header comme on peut le voir encore sur de nombreux sites. Le footer a pour objectif d'afficher des liens dits mineurs (sans valeur SEO forte) : Conditions générales de vente, mentions légales, confidentialité. Le header a pour objectif d'afficher l'arborescence du site : les liens vers les principales catégories. Il peut représenter le premier point d'entrée des moteurs et des internautes. Gestion de la pagination (pages de listing) Il existe deux manières d'optimiser l'affichage de la pagination. - Intégrer les balises rel prev rel next dans la section <head> des pages. Rel prev : Pour indiquer l'identité de la page précédente. Rel next : Pour indiquer l'identité de la page suivante. <link rel="prev" href="http://www.example.com/article-partie1.html"> <link rel="next" href="http://www.example.com/article-partie3.html"> - Donner accès à Google à l'ensemble des pages de pagination dès la page 1. Selon le volume de pages de pagination, afficher les unités, puis les dizaines. 1 2 3 4 5 6 7 8 9 10 20 30 40 50 60 70 80 90 100 200 300.
  • 9. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 9 Chapô Le chapô est un petit paragraphe introductif de 2-3 lignes qui donne le ton ou/et un rapide aperçu du contenu d'une page (article ou liste de résultats). Il est utile au référencement, car on s’en sert pour apporter de la valeur sémantique à la page. Contenu éditorial Le contenu éditorial correspond à l'ensemble des textes affichés sur une page. Sur une page article, il s'agira de l'article lui-même, sur une page produit, il s'agira du descriptif produit (ainsi que les avis et commentaires). Il faut trouver un juste milieu pour afficher le contenu utile au référencement sans gêner l'expérience de l'utilisateur. Par exemple il est possible d'afficher les contenus secondaires en bas de page. Liens internes Les liens internes servent à naviguer d'une page vers une autre au sein du même site. L'idée c'est surtout que les liens soient les plus pertinents et cohérents possible par rapport au contenu de la page de départ. Il peut s'agir par exemple de liens vers des fiches produits complémentaires, des pages articles complémentaires, des guides / fiches pratiques complémentaires. On cherche à rester mesuré par rapport au volume de liens connexes. Tout dépend de la structure et de la volumétrie du site, mais raisonnablement, on n'irait pas au-delà de 20-30 liens connexes. Encore une fois, tout dépend de la structure du site. CTA - Call To Action Le bouton Call to Action a pour objectif de conduire un internaute à accomplir une action : commander, s’inscrire à une newsletter etc.
  • 10. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 10 La mise en avant de ce bouton sur la page est très importante. Il convient de produire des tests pour valider le meilleur emplacement. Voici un exemple de bouton CTA “Ajouter au panier” efficace : Indexation des pages Comme vu ci-dessus, nous n'avons pas forcément intérêt à souhaiter le crawl de l’ensemble des pages de son site. Dans l'idéal on ne cherchera à crawler et indexer que les pages qui ont vocation à être indexables et à générer du trafic. Il s'agira par exemple de pages listes, produits, articles, home page. Bref, les URL canoniques et les pages 1 en cas de pagination. Il est toujours intéressant de vérifier le volume de pages indexées via la Search Console ou via la commande "site:" dans le champ de recherche Google. Besoins d’une arborescence saine Pour l’internaute et les moteurs il convient de mettre en place une arborescence claire, et peu profonde. Le parcours peut se présenter comme cela : HP > Univers > Catégorie > Sous-catégorie > Article ou produit. L’autre point très important est la disponibilité des informations en base de données : Si les informations sont disponibles, on pourra les traiter en les ajoutant dans des pages existantes
  • 11. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 11 ou même créer de nouvelles pages. La structuration de la base de données est donc essentielle avant de créer une nouvelle arborescence. International Afin de faciliter la bonne prise en compte des versions linguistiques d’un site, il convient d’ajouter les balises HrefLang dans la section <head> des pages. Le support Google : https://support.google.com/webmasters/answer/189077?hl=fr Exemples : <link rel="alternate" href="http://example.com/fr-be" hreflang="fr-be"/> <link rel="alternate" href="http://example.com/fr-ca" hreflang="fr-ca"/> <link rel="alternate" href="http://example.com/fr-ch" hreflang="fr-ch"/> Le Hreflang s’applique à la langue et au pays cibles. -3- L’avènement du “Mobile Index First” de Google Google commence progressivement sa bascule sur l’index Mobile : jusque maintenant il indexait la version Desktop par défaut. Désormais c’est la version mobile d’un site qui sera prise en compte en priorité par Google, d’où l’intérêt de prendre du temps pour bien peaufiner sa version mobile. Ne pas hésiter à tester l'affichage de la version mobile (la version RWD est un bon début mais pas suffisant). Entre autres : Ascenseur latéral. Taille des lettres et des espaces. Risque de superposition des éléments. Google recommande de passer par l’analyse des logs serveurs pour identifier la part de crawl de Googlebot mobile versus Googlebot classique. En cas de taux de crawl Googlebot mobile plus fort, on considérerait qu’un site est près pour la bascule Google Mobile Index First. L'outil de test d'optimisation mobile est ici. Comment bien se préparer au Mobile Index First Selon la situation, plusieurs cas de gestion sont envisageables : ► Le site est en Responsive Web Design.
  • 12. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 12 Le design de la page s'adapte à la largeur de l'écran, pas de changement d'URL. Et enfin pas de détection du type de device nécessaire. Google recommande d'utiliser un site en version Responsive Web Design. Si cela est possible, ne pas hésiter à migrer le site mobile vers la version Responsive (plus facile de gérer un site plutôt que deux). ► Dynamic serving. Même fonctionnement qu'avec le RWD (Responsive Web Design), sauf que le code source s'adapte, afin d'alléger la version mobile. ► Le site a une version mobile. Attention, si la version mobile est moins riche que la version desktop, moins travaillée ou moins mise à jour, il y a de fortes pertes à prévoir. Si c'est le cas, prévoir dans ce cas de passer à la version RWD pour ne plus avoir ce problème de contenu non mis à jour. ► Pas de version mobile ? En prévoir une très vite. La nouvelle règle qui s'impose à nous, c'est qu'à partir de maintenant, il faut penser mobile first, tant en terme de conception de page, qu'en terme d'ergonomie ou d'affichage des éléments sur la page. Avoir un site RWD (Responsive Web Design) n'est pas suffisant : il faut corriger les erreurs de navigation sur mobile, et optimiser la navigation mobile. Il faut communiquer efficacement avec ses personas, susciter une émotion, répondre efficacement à leurs attentes, fournir ainsi une offre de service efficace. Trois critères de classement sur le nouveau Mobile Index First ressortent : ► La vitesse de chargement (d'où le réel besoin d'optimiser le temps de chargement pour desktop et encore plus sur mobile : les mobinautes sont plus impatients encore que les internautes). ► L'expérience utilisateur: ergonomie, affichage et hiérarchisation des contenus, navigation, taille des contenus, facilité de lecture. ► Qualité des contenus. Points structurels à prendre en compte : Faire attention que le site mobile soit bien configuré : Sitemap, robots.txt, rattachement à la Search Console.
  • 13. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 13 Vérifier que la structure de la version mobile est saine: pas de contenu dupliqué, URL propres, temps de chargement optimisé. Le balisage de correspondance entre une version desktop une version mobile ne change pas, même si le mobile devient "dominant" : Sur la page pour ordinateur http://www.example.com/page-1, ajouter : [ link rel="alternate" media="only screen and (max-width: 640px)" href="http://m.example.com/page-1"] Sur la page mobile http://m.example.com/page-1, l'annotation doit être la suivante : [link rel="canonical" href="http://www.example.com/page-1">] Il est obligatoire d'utiliser cette balise rel="canonical" sur l'URL mobile qui renvoie vers la page pour ordinateur. Adapter l'affichage au device: entre mobiles, tablettes, phablettes, les tailles de devices sont nombreuses. La règle reste la même: Afficher la balise View-Port: meta name=viewport content="width=device-width, initial-scale=1" Points templating à prendre en compte Faire un check des templates : sont-ils SEO-friendly? Fil d'Ariane, Balises méta, Balise H1, Balises Hn, Micro-data, contenu éditorial, boutons Call To Action, liens internes, versions /amp. Gérer les zones cliquables: préférer les boutons aux liens textes, difficilement accessibles sur mobile. Chaque élément cliquable aura la taille minimum de 7mm et sera espacé des autres éléments de 2 mm. Points compatibilité mobile / desktop à prendre en compte Valider la compatibilité mobile de la home page et des pages profondes, grâce à l'outil "Test d’optimisation mobile" (cf lien affiché ci-dessus). Affichage des contenus entre la version mobile et desktop : Google continuera de prendre en compte le contenu "caché" de la version desktop. Les contenus entre mobile et desktop doivent être synchronisés (login par exemple), de telle sorte que le user peut naviguer entre les deux devices facilement. Points sur l’utilisabilité mobile à prendre en compte Avertir le mobinaute des notifications, alertes, mises à jour peut se faire via le canal haptique (vibreur).
  • 14. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 14 Limiter si possible l'utilisation du clavier. Permettre aux mobinautes d'identifier les éléments cliquables. Les mobiles recèlent de tout un tas de fonctionnalités qui peuvent être utilisées sur le site mobile. Adapter au contexte d'utilisation du user: jour ou nuit, bruit ou silence (prévoir des chartes graphiques différentes). -4- Pilier éditorial -4-1- Règles d'écriture pour le web | Story telling Voici ci-dessous quelques uns des grands principes de la rédaction web : - Structurer le contenu selon le concept de la pyramide inversée : - Aller du général au particulier. Donner les éléments essentiels en début de contenu, puis donner les détails en fin de paragraphe (cf la pyramide inversée ci-dessous). - Utiliser des phrases courtes. - Traiter une idée par paragraphe. - Aérer la mise en page. - Adapter le style d'écriture à la cible. - Faire le titre le plus explicite possible. - Faire attention au fautes d'orthographe et de syntaxe. - Etre concret. - Ecrire des contenus utiles. - Utiliser la voix active. - Etre positif (le style négatif allonge les phrases). - Définir en amont ce qu'est sa charte éditoriale web - Ne pas utiliser de jargon, ni de cliché. - Hiérarchiser le contenu titre, sous-titres, paragraphes. - Intégrer des liens dans le contenu. - Faire le bon choix de mots clés selon l'attente et l'intention de l'internaute. L'objectif de la rédaction web est d'apporter rapidement la réponse que l'internaute souhaite sans qu'il ait à chercher lui-même. Chaque contenu doit avoir une structure claire et précise (introduction, partie 1, partie 2, partie 3, conclusion). Voici la règle de la pyramide inversée : du plus important au moins important.
  • 15. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 15 Toujours avoir en tête qu'on rédige pour l'internaute et non pour les moteurs. Il faut donc que la lecture du contenu soit fluide et aisée. On cherche alors à embarquer l’internaute dans une démarche de story telling (on raconte une histoire). C’est là aussi où intervient l’expérience utilisateur : la qualité, la pertinence du contenu va jouer sur le ressenti de l’utilisateur dans son expérience sur le site. Quid de la longueur : Quelle longueur pour un article? On peut partir sur un minimum de 900 signes. C'est la règle commune. Rédiger le contenu qu'on considère comme suffisamment intéressant et crédible pour l'internaute. On peut faire des tartines de texte qui n'a aucune valeur ajoutée. Rédigez ce qui vous semble indispensable en premier lieu. En SEO, on dit qu’il faut du contenu pour être valorisé auprès de Google, au risque de rédiger un tel volume de contenu sur une page que celui-ci ne sera qu’à moitié lu par les internautes. Ce n’est pas positif pour l’expérience utilisateur. D’où l’intérêt de trouver un compromis entre les intérêts SEO et UX. La bible de l'écriture pour le web est ici. -4-2- Choix des mots clés Ecrire du contenu, c’est bien, écrire du contenu qui répond aux besoins des internautes c’est mieux. Encore dans de nombreux cas, on voit des acteurs du web rédiger du contenu selon les requêtes tapées par les internautes. Je recommande une autre approche : Rédiger du contenu qui répond à un besoin précis de vos personas, ce qui implique donc de rédiger du contenu pour les internautes et non plus uniquement pour les moteurs. C’est ce qu’on appelle l’inbound marketing, dans lequel s’inscrit la stratégie de content marketing : le fait de faire venir les internautes vers soi via du contenu qualifié.
  • 16. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 16 Une fois le sujet de rédaction ciblé on pourra sélectionner des mots clés plus ou moins recherchés par les internautes. - Cette approche implique donc de bien connaitre ses personas. - Cette approche implique de comprendre l’intention de l’internaute derrière une requête et de pouvoir y répondre efficacement. La recherche de mots clés peut être faite via diverses méthodes. Celle que j’utilise et qui fonctionne généralement bien : - Sortir les requêtes sur lesquelles se positionnent les concurrents. - Analyser les requêtes des concurrents et du secteur versus celles sur lesquelles le site cible est positionné. - Filtrer et identifier les requêtes sur lesquelles le site cible doit chercher à se positionner via de la recherche de mots clés. C’est un travail chronophage mais nécessaire. Cette recherche sémantique peut aboutir selon les besoins, à la constitution d’un planning éditorial : c’est à dire qu’on planifie les contenus à rédiger sur la base du choix des requêtes priorisées. Les contenus peuvent exister via divers formats : Articles, fiches conseils, landing pages dédiées, infographies, interviews, sondages. Ces contenus seront ensuite maillés entre eux, selon leur pertinence. Une stratégie éditoriale bien ficelée et bien étudiée en amont peut résulter en la constitution d’un cocon sémantique. Autour d’une requête dite primaire, l’objectif est de décliner du contenu sur des requêtes secondaires complémentaires et de linker les contenus ensemble afin de créer une cohérence sémantique autour d’un sujet. Google comprend bien cet exercice à valeur ajoutée et valorise ces pages dans ces résultats.
  • 17. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 17 -5- Pilier Notoriété / Popularité La notoriété s’acquiert via une gestion de contenus efficace et pérenne. Elle s’acquiert via des back links pointant vers son site. Plus ces back links sont nombreux et émanant de différentes sources pertinentes plus l’acquisition de notoriété sera forte. Diverses méthodes d’acquisition de back links existent. Je ne vais pas vous en faire la liste, mais vous présenter celle qui me semble la plus pérenne, et la plus efficace. Ce qu’on appelle le linkbait : le fait que naturellement les internautes fassent un lien vers votre site. Pourquoi? Parce qu’ils auront vu votre contenu, et qu’ils l’auront trouvé pertinent et répondant à leurs besoins. Ils feront un lien vers cette page. D’où l’intérêt de créer du contenu ayant de la valeur ajoutée. Il s’agit, à mon sens, de la manière de créer un cercle vertueux, car ce processus crée de l’engagement entre les internautes et un site. Les internautes pourront revenir et augmenter le volume de pages vues dans une session. Ces contenus peuvent exister sous différentes formes : ■ Infographies. ■ Concours. ■ Sondages. ■ Vidéos. ■ Exclusivités / buzz. Voici d’autres méthodes d’acquisition de back links (hors linkbait) : - Achat de back links : Google dit non à cette méthode. Comme toujours au pays de Google, rien n’est tout blanc ni tout noir, la méthode d’achat de liens est possible, tout dépend de la manière dont c’est fait. Si les thématiques des deux sites correspondent et que le lien est inclus dans le contenu éditorial de la page, s’il parait “naturel”, Google devrait l’accepter. Ce sont des méthodes plus machiavéliques que Google sanctionne via le fameux Panda (sanction de méthodes de back links ayant pour seul objectif remonter dans les listes Google). Par exemple : les liens externes vers des sites sans aucun rapport thématique présents dans le footer. - Échanges de back links : C’est la méthode la plus répandue. C’est une méthode très chronophage et qui, selon moi en tout cas, apporte souvent peu de résultats. Concrètement on peut passer plusieurs semaines / mois à négocier des liens avec un autre site.
  • 18. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 18 - Créer soi-même des liens via des forums, les communiqués de presse. Il faut alors utiliser des supports de très bonne qualité. - Les inscriptions dans les annuaires : On peut encore le faire. A mon sens, l’impact positif s’avère très limité. Trop limité en tout cas pour y investir du temps. La meilleure méthode reste la rédaction de contenus qualifiés générant naturellement des back links vers sa page. Ce qui crée naturellement de la notoriété et de l’engagement. On peut créer du contenu via des supports externes : rédiger des articles sur d’autres blog, ou via des sites comme Medium.com. -6- Pilier Engagement social Une fois que ce contenu de qualité est rédigé, il faut le faire connaître. Le publier via les réseaux sociaux : les supports sur lesquels votre site est inscrit et que vous utilisez régulièrement. Bien sûr, il faut également un travail de gestion de communauté en aval. Mais vous pouvez publier vos contenus via vos réseaux : Linkedin, Facebook, Twitter etc. Il convient de prévoir un planning de publication. Dixit un blog en web marketing “Tant que vous avez de l’engagement, publiez autant que vous le souhaitez” Je vous joins le lien vers l’article : https://www.webmarketing-conseil.fr/frequence-reseaux-sociaux/ Pour résumer, pour animer efficacement sa communauté sans la “fatiguer”: - 1 publication par jour sur Facebook. - 3 tweets par jour. - 5 posts par semaine soit 20 par mois sur Linkedin. - 1 vidéo Youtube par semaine. Ce sont des chiffres très théoriques et à confirmer (ou non) selon le marché ou le secteur. La publication de contenus de qualité sur les réseaux sociaux doit pouvoir générer de l’engagement via les réactions, les commentaires, les nombres de likes et de partages. Plus une page crée du partage social plus elle aura de chances de remonter dans les serps Google. -7- Problématiques émergentes | Innovations
  • 19. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 19 Recherche Vocale Ça y est Google Home trône dans le salon, et la recherche vocale également. Par la voix on pose de vraies questions et plus seulement quelques mots clés dans le champ de recherche Google. Le SEO est donc impacté, et doit donc s'adapter à cette nouvelle manière de chercher les informations. C'est donc majoritairement du trafic longue traîne qui va être généré et il faudra donc anticiper le planning éditorial correspondant à cette longue traîne. -8- Monitoring des performances Suivre les performances de trafic d’un site est une étape incontournable. Sur le SEO, on peut suivre le volume de trafic et les conversions provenant de Google sur une période donnée versus année précédente. Afin d’analyser les performances, on pourra aussi analyser les logs serveurs, par exemple après une refonte ou une migration pour comprendre comment se comporte Google sur le site. L’objectif étant d’amener Google à crawler les zones “utiles au référencement” du site. Les analyses des logs sont propres et uniques à chaque site, chaque objectif, car on suivra des KPI différents à chaque fois. Dans une approche UX UI, on pourra analyser l’évolution de : Le volume de conversions. Le volume d’interactions accomplies. Le volume de pages vues dans une même sessions. Le taux de rebond. Le taux de nouveaux visiteurs. -9- Focus sur les outils Crawlers : Xenu - Screaming Frog - Botify - On Crawl - Google Search Console. Public concerné : Les développeurs peuvent utiliser ces outils afin de mener des analyses notamment en pré-production avant la mise en production d’un chantier. Les marketeurs également, plutôt pour des analyses ponctuelles.
  • 20. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 20 Xenu et Screaming Frog (gratuits) sont des outils qui permettent d’analyser la structure d’un site. L’outil crawle le site comme le ferait Google, et récupère de nombreuses informations très utiles comme : la volumétrie de pages (qu’on peut ensuite filtrer par typologies de pages), les balises title (celles remplies, ou vides, ou dupliquées), les balises h1, les balises descriptions, les attributs alt, les données noindex. Botify et Oncrawl (payants) sont des outils Saas très puissants. Ils permettent les analyses structurelles de sites bien plus poussées que Screaming Frog, en se pluguant à Analytics et également en mettant en parallèle les analyses de logs (si livrés). Par exemple avec ces outils on peut comparer le volume de fiches produits disponibles sur le site versus le volume de fiches produits crawlés par Google, ainsi que le trafic généré par ce type de page. De fait, si on se rend que 15% seulement des fiches produits sont crawlés sur le site, dans ce cas il faut investiguer afin de pouvoir proposer des chantiers correctifs permettant le crawl de l’ensemble des fiches produits. Search Console est l’outil de Google. Il donne des informations très intéressantes sur le volume de crawl quotidien de Google, le volume de pages indexées, le volume de pages renseignées dans le fichier sitemap.xml indexées sur Google. Le volume de liens pointant vers son site, la bonne intégration des micro-datas, la compatibilité mobile. Recherche de mots clés : Keyword Shitter - Semrush - Générateur Google - Ranxplorer - Cocon.se - 1.fr - Answer the Public - Yooda Insight. Public ciblé : les rédacteurs, les marketeurs. Ils sont très intéressants pour découvrir de nouvelles opportunités de requêtes, identifier le volume de requêtes sur lesquelles se positionnent les concurrents versus notre site. Ils ne donnent pas de réponses toutes faites, mais sont de très bonnes aides à la prise de décision. Ranxplorer est assez nouveau, et fait très bien le job sur les requêtes francophones. Pour chaque requête, il donne le volume de recherches moyen mensuel, le volume de résultats affichés sur Google correspondant, le CPC moyen, et le niveau de compétitivité. Il est très utile pour identifier un nouveau champ sémantique à développer, cibler des requêtes sur lesquelles on est mal positionné. On peut construire son cocon sémantique à partir de cet outil. Outils de positionnement : Yooda Cloud - Ranks.fr - MyPoSEO - Agent Web Ranking. Public ciblé : les marketeurs. Il en existe d’autres mais ceux cités sont ceux que je connais le mieux. La différence d’un outil à un autre est le volume de mots clés audités par mois selon son budget. Au-delà de cela ils font tous le même travail.
  • 21. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 21 J’ai une préférence pour Yooda Cloud, où le volume de requêtes mensuelles est intéressant. On peut classer les requêtes par groupes de mots clés, choisir les moteurs et par pays. On a l’historique de position de chaque mot clé, et on peut ajouter 5 concurrents. Par ailleurs, Yooda Cloud possède l’outil https://insight.yooda.com/ . Il teste de manière macro le positionnement d’un site sur plusieurs millions de requêtes, cela nous donne l’historique mois par mois et on peut comparer le positionnement avec les concurrents. Outils d’analyse de back links : Majestic SEO - https://ahrefs.com/ . Là aussi beaucoup d’outils disponibles, ceux-là sont ceux que je connais le mieux. -10- Annexes - Lexique Crawl : Ce sont les robots des moteurs (les spiders) qui analysent le code des pages. L’objectif est de crawler les pages utiles au référencement (c’est à dire les pages prêtes à générer du trafic, comme les pages produits, articles ou listes). On parle de crawl inutile, quand les robots crawlent des pages sans intérêt SEO (pages filtres par exemple). Il faut un ratio de crawl inutile le plus faible possible. Les robots ont un budget de crawl défini, il faut donc qu’ils analysent les pages utiles en priorité. Une page peut être crawlée mais ne sera pas forcément indexée, si le moteur considère qu’elle est dupliquée par exemple. Index : Il s’agit du glossaire d’un moteur de recherche. Celui-ci classe les pages selon différents critères, et notamment le champ sémantique. Serps : Search Engine Result pages. Il s’agit des listes de résultats d’un moteur de recherche. Test utilisateur : C’est une méthode provenant de la conception User Experience. On soumet un site, une application à un utilisateur (correspondant si possible au persona cible). On voit comment elle interagit avec l’outil. Cela nous permet ou non de valider un template de page par exemple. C’est la seule méthode nous permettant de savoir si un outil est pertinent ou pas pour l’utilisateur final, dans sa conception, son utilité, son utilisabilité.
  • 22. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 22 Back Links : Ce sont des liens externes pointant vers un site, plus ils sont nombreux et de sources variées et de qualité, mieux c’est. Googlebot : C’est le robot de Google. Il crawle par défaut les versions desktop de sites. Googlebot Mobile : C’est le robot de Google dédié au mobile. Il va crawler la version mobile des sites. Bouton Call To Action : Par exemple c’est le bouton commander, sur une fiche produit. Ou n’importe quel bouton appelant à une interaction sur une page. L’objectif est de valoriser graphiquement ce bouton, afin d’augmenter le volume d’interactions. Derrière ce bouton, c’est aussi le parcours utilisateur qu’il faut optimiser (page panier par exemple), afin de limiter au maximum les étapes, et de finaliser l’interaction. Longue traîne : c’est une requête composée de plusieurs termes, très spécifique, peu voir pas du tout recherchée. Elle génère un trafic très qualifié. Panda : C’est un filtre de Google ayant pour objectif de sanctionner les pages affichant un contenu trop pauvre, ou inexistant, ou dupliqué. Pingouin : C’est un filtre de Google ayant pour objectif de sanctionner un site affichant des des liens vers des sites externes de manière massive, dans une optique de gagner des positions. Position zéro : Sur une liste de résultats Google, c’est le résultat qui apparait avant le premier résultat naturel. Google s’octroie le droit de choisir quelle page il souhaite valoriser. On a le même principe pour de nombreux types de résultats : résultats sportifs, programme tv, météo. -11- Annexes - Interactions entre SEO et UI / Ergonomie Les principes UI prennent en compte les besoins SEO mais correspondent à un périmètre bien plus large de design, d’ergonomie, et d’expérience utilisateur. La vitesse de chargement rentre évidemment en compte, la qualité du contenu, et la qualité de l’expérience utilisateur : La pertinence du titre affiché sur les listes Google. La pertinence des deux ligne de description affichées sur les listes google. La pertinence du titre (H1) sur la page. Le vitesse de chargement de la page. La qualité graphique de la page. L’harmonie générale de la page + affichage des éléments. Bouton CTA. Liens internes. Le volume de contenu. Les principes ergonomiques.
  • 23. Auteur Nicolas Vidal - Expert SEO Freelance Version : 2Page 23 Le fil d’Ariane + possibilité de naviguer sur d’autres pages du site + affichage du header / footer. L’internaute peut-il trouver facilement son information via le header ou le champ de recherche? Les interactions de la page : sont-elles claires ? valorisées ? Faciles à accomplir? Le contenu : Correspond-t-il à l’attente de l’internaute? Est-il suffisant? Fait-il autorité? Le contenu est-il bien écrit? Sans faute d’orthographe? Le contenu est-il bien disposé? Les images sur la page correspondent-t-elles aux attentes de l’internaute? Il faut produire des tests utilisateurs afin de s’assurer de la bonne construction des pages et des interactions.