Le 14 avril 2016, Objectif Papillon organisait à Toulouse une conférence sur les nouvelles pratiques SEO pour que votre site internet reste au top des résultats des moteurs de recherche.
Intervenants :
Laetitia Chessé (Trafimedia) Vincent Moreau (Objectif Papillon), Laurent Brice (Vale Tudo), Alexandre Santoni (Keeg), Marc Laliat (Escale Web), Vincent Moreau et Aurélien Miklas (Objectif Papillon).
3. 14042016 | #SEOupdate2016
Le référencement local (Laetitia Chessé)
Netlinking not dead ? (Laurent Brice)
La sémantique dans tous ses états (Vincent Moreau)
Le SEO sans data, est-ce bien raisonnable ? (Alexandre Santoni)
Présentation d’OnCrawl, web crawler et analyse de logs (Aurélien Miklas)
Comment organiser le SEO en entreprise ? (Marc Laliat)
Table ronde : Quoi de vraiment neuf sous soleil du SEO ?
Programme
5. 14042016 | #SEOupdate2016
Pourquoi faire du SEO Local ?
• Contexte de plus en plus concurrentiel
• La 1er page des Serps est de plus en plus « personnalisée »
donc « localisée ».
• Le SEO local ce n’est pas seulement
– Mots clés + activité (exemple « Salle de sport + Toulouse »)
– C’est aussi « mot clé tout seul » pour les internautes géo
localisés dans la zone (exemple : Salle de sport » pour une
personne géo localisée à Toulouse)
• CONCLUSION :
Pour une PME / TPE avec un budget limité (< 5000 € / an) viser le
marché local est la meilleure option
6. 14042016 | #SEOupdate2016
Analyse de la 1er page des Serps*
*Serp : Search Engine Result Pages
3 Types de résultats
• Google Adwords
• Google Maps (Google My Business)
• Référencement naturel (site web)
Ligne de flottaison
7. 14042016 | #SEOupdate2016
Exemple de résultats de recherche
Un outil très pratique
pour voir les résultats
dans les villes que vous
n’habitez pas..
GOOGLE ADWORDS
PREVIEW
https://adwords.google.c
om/apt/anon/AdPreview
Choix du terminal et de la
zone géographique.
8. 14042016 | #SEOupdate2016
3 Types de résultats
• Google Adwords
(incontournable … mais nous n’en parlerons pas ici)
• Inscription Google My Business
• Optimisation Référencement naturel de votre site web
• Stratégie gagnante pour les professionnels qui se veulent
élargir leur visibilité : multiplier les établissements dans
plusieurs villes.
– Cf stratégie historique Pages Jaunes (taxis, serrurier,
déménageurs etc…)
– Ça marche en fait pour tous métiers : agence de com,
architectes, pisciniste, osthéo etc….)
Quelle stratégie pour un SEO Local
9. 14042016 | #SEOupdate2016
Critères de classement
* Source moz : https://moz.com/local-search-ranking-factors
Autres
Avoir une Fiche Google Mybusiness (Proximité avec le lieu recherché, Catégorie, mots
clés dans la balise Title)
Critères externes au site (Parution dans les annuaires locaux, Annuaires officiels du type
societe.com, infogreffe etc…,)
Critères onsite : présence mots clés balises title, présence adresse postale vérifiée sur le
site, Autorité du nom de domaine)
Baklinks / popularité: nbre de liens entrants, popularité des liens entrants, qualité des
liens entrants
Revues / avis client sur fiche G+ et sur le site : qualite + quantité
Signaux sociaux : G+, Facebook, twitter (nbre de citations)
Comportement dans les Serps (taux de clics, appels via Click to Call)
0% 5% 10% 15% 20% 25%
Critères Classement SEO LOCAL
10. 14042016 | #SEOupdate2016
Que faut-il faire?
* Source moz : https://moz.com/local-search-ranking-factors
• Soigner le contenu de son site pour inciter les internautes à lire + partager les
infos + vous contacter
• Faire figurer l’adresse postale de sa société de manière évidente sur les pages (si
possible en utilisant les données structurées: micro data, micro format)
• Soigner les titres et descriptions de ses pages (faire figurer les localités visées) + la
description doit inciter au clic (message marketing)
• S’inscrire dans tous les annuaires Locaux, multiplier les « citations » : pages
jaunes, yelp, foursquare + annuaires thématique
• S’inscrire sur Google MyBusinness
• Mettre en place une politique de récolte d’avis : -> inciter vos clients à laisser des
avis (positifs ) sur votre fiche GGMaps et sur votre site
Laisser le temps faire…
12. 14042016 | #SEOupdate2016
« Les sites de CP sont
morts »
« Les annuaires c’est
mort ! »
« Les échanges de liens
c’est mort »
« Les liens footer c’est
mort »
« L’achat de liens c’est
mort »
Bla Bla Bla..
Le netlinking est-il mort ?
14042016 | #SEOupdate2016
13. 14042016 | #SEOupdate2016
Google Pingouin pénalise plus particulièrement les sites ayant recours à des techniques de
netlinking abusives, c'est-à-dire contraires aux guidelines de Google. Cette mise à jour se
concentre donc sur des critères de référencement externes au site
Première raison : Google Penguin
Plusieurs updates :
• Pingouin 1 : 24 avril 2012
• Pingouin 1.1: 22 mai 2012
Pingouin 1.2 : 5 octobre
2012
• Pingouin 2.0 : 22 mai 2013
• Pingouin 2.1 : 4 octobre
2013
• Pingouin 3.0 : 20 octobre
2014
• Pingouin 3.1 : 28 novembre
2014
• Pingouin 4 : « prévu » pour
début 2016
L’objectif : Pénaliser les techniques de netlinking abusives
14042016 | #SEOupdate2016
20. 14042016 | #SEOupdate2016
Et Pourtant…
Regardons ce qui se passe sur quelques
requêtes…
Ces cascades SEO
sont réalisées par
des professionnels.
Pour votre sécurité
ne reproduisez pas
ces techniques à la
maison.
14042016 | #SEOupdate2016
29. 14042016 | #SEOupdate2016
Ne pas faire trop de liens trop vite !!!!
Ce site passe d’environ 100
domaines référents à plus
de 500 en un mois !
14042016 | #SEOupdate2016
33. 14042016 | #SEOupdate2016
Conclusions ?
• Attention, c’est un constat à l’instant T :
– les performances passées ne préjugent pas des
performances futures
• Pas de simplification :
– les filtres anti-netlinking sont complexes
– on est « jugés » sur un {profil|ecosystème} de liens
• Les bons outils + la bonne analyse :
– c’est un métier ma petite dame
14042016 | #SEOupdate2016
35. 14042016 | #SEOupdate2016
Le risque nul n’existe pas
• Vous avez des liens = risque
– qui sait comment va évoluer GG d’ici 1,2 ..5 ans ?
– les effets de bord des updates
• Vous {n’avez|ne faites} pas de liens = risque de ne
jamais ranker
• Vos concurrents aiment le negative SEO ?
– on s’en prémunit d’autant mieux qu’on a un profil de liens
solide
• Vous faites du linking ultra propre (linkbaiting)
– Jusqu’ici tout va bien
14042016 | #SEOupdate2016
36. 14042016 | #SEOupdate2016
Qu’avez-vous à perdre VS à gagner ?
Les questions à se poser
– Dépendance web pour votre CA ?
– Dépendance vis-à-vis de Google ?
– Qui vit de votre activité ?
– Solutions de rechange ?
– Que vaut votre NDD ?
– Quel potentiel de croissance avec le SEO ?
– Quel degré « d’urgence » à développer du trafic ?
– Combien de temps voulez-vous rester en place ?
14042016 | #SEOupdate2016
37. 14042016 | #SEOupdate2016
Le risque est un problème financier
TEMPS ARGENT J’ai pas un radis Je suis blindé
J’ai du temps devant
moi
Netlinking qualitatif en
mode « huile de
coude »
Netlinking quali +
Investir dans la com !
Je suis « pressé » RISQUE +++
(la pire situation)
Déporter le risque
14042016 | #SEOupdate2016
39. 14042016 | #SEOupdate2016
FLOP
Quand Google pénalise les innocents :
Site fermé en nov/dec 2014 injustement
pénalisé par Penguin en oct 2014 alors qu’il
diversifiait ses ancres !
43. 14042016 | #SEOupdate2016
Annuaire-mairie.fr :
juste derrière les sites officiels
sur les requêtes
de type « ville de … »
7053 mots !
Intégration de données Open
data / webservices divers.
Maillage interne.
Des mots par milliers
44. 14042016 | #SEOupdate2016
Google Sait !
Google n’a pas besoin
des termes exacts. Il
interprète ma requête
pour en déduire mon
intention.
45. 14042016 | #SEOupdate2016
RankBrain
L’IA (Intelligence Artificielle) selon Google.
Algorithme progressivement intégré au moteur.
Les techniques de deeplearning pour identifier les
intentions de l’utilisateur (la compréhension de ce
qui est sous-jacent mais non dit …)
D'après les concepteurs de RankBrain, le système a surpassé les ingénieurs
(humains) sur certains tests, et les utilisateurs semblent préférer les
résultats quand RankBrain est utilisé (source : Webrankinfo)
46. 14042016 | #SEOupdate2016
Google est vectoriel
Les textes sont ramenés à des vecteurs, que Google compare.
Chaque page indexée est vectorisée.
Chaque requête est enrichi et vectorisée.
La comparaison de ces vecteurs fournit les résultats du moteur.
(source : freres-peyronnet.eu)
47. 14042016 | #SEOupdate2016
Le Page Rank est thématique
Les liens n’ont de valeur que s’ils relient des
pages de même thématique
(une page peut être reliée à plusieurs
thématiques)
48. 14042016 | #SEOupdate2016
La sémantique
peut être glissante
Il est possible de favoriser le transfert du PageRank d’une
thématique A vers une thématique B, mais il faut le faire
par étape (glissement sémantique)
Exemple : pour aller de la thématique « SEO » à la
thématique « immobilier neuf », nous passerons par les
thématiques « SEO dans l’immobilier neuf » / « marketing
internet immobilier neuf » / « marketing immobilier neuf »
49. 14042016 | #SEOupdate2016
Le surfeur aléatoire
Le Page Rank est la valeur qui mesure la
probabilité qu’un internaute visite votre page
50. 14042016 | #SEOupdate2016
Par exemple le surfeur aléatoire vous permettra d’arbitrer sur le
sujet « faut-il lier les pages sœurs entre elles ? » dans un cocon
sémantique (La réponse étant … ça dépend ! A savoir que si la
page mère a un objectif de référencement plus élevé, il ne faut
pas lier les pages sœurs entre elles)
51. 14042016 | #SEOupdate2016
Silo & Cocon
Le silo, c’était avant.
Au temps du Page Rank sculpting.
source : ninjalinker.com
52. 14042016 | #SEOupdate2016
Silo & Cocon
Le cocon, c’est maintenant ...
Et c’est presque pareil ! Mais presque seulement.
Les illustrations sont plus jolies :)
Mais surtout : importance de la
contextualisation des liens et de
« l’odeur sémantique ».
Le concept de cocon sémantique e a été développé
/ popularisé par Laurent Bourrely.
53. 14042016 | #SEOupdate2016
A la recherche du meta-mot
ou là …
Le meta-mot (qui n’est donc pas un mot !) est la liste des termes qui
caractérisent un sujet, aux yeux de Google (ce qui est la complexité du sujet !)
Pour trouver le meta-mot on peut aller ici …
56. 14042016 | #SEOupdate2016
Méthode de Christian Méline
(www.referencement-naturel-white-hat.fr)
Importance de la fréquence dans
l’emploi de ces termes : la
fréquence de chaque terme doit
être en cohérence avec la
fréquence du terme dans le corpus
général de la thématique
(TF-IDF : Term Frequency-Inverse
Document Frequency)
Exemple de meta-mot
57. 14042016 | #SEOupdate2016
Cocon et meta-mot fait main
marketing, construction de site et SEO sont dans un bateau …
Utiliser les méthodes des PERSONAS pour identifier les besoins de
vos clients, et construire une arborescence qui part de l’expression
des BESOINS utilisateurs pour arriver aux PRODUITS.
Utiliser le glissement sémantique pour passer d’un niveau à l’autre.
Identifier le corpus sémantique de chaque niveau.
Le cocon peut être très large. Par exemple, si on vend des produits
alimentaires bio remonter les arbres de causalité (alimentation saine,
effet sur la santé, impacts sociaux, effets environnementaux, etc …)
58. 14042016 | #SEOupdate2016
1 vrai petit cocon
L’objectif : lancer le référencement d’Objectif Papillon
comme prestataire pour les professionnels de l’immobilier
neuf.
Nous avons initié notre référencement début 2016 sur :
« référencement naturel promoteur immobilier »,
« marketing internet immobilier neuf »,
« solutions internet promoteur immobilier », …
expressions pour lesquelles nous avons rapidement obtenu
les 1ères positions.
Une concurrence moyenne, un trafic très limité mais très
qualitatif (et des leads à forte valeur ajoutée)
60. 14042016 | #SEOupdate2016
1/ Glissement sémantique depuis nos pages positionnées
« référencement naturel » via des pages intermédiaires
2/ Mini-cocon sémantique (création d’une vingtaine de pages)
Mini-cocon mais vrais objectifs :
faire converger le PageRank vers les pages correspondant aux
requêtes cibles (pages « création de site » et « marketing internet », la
page d’accueil de la rubrique n’étant pas la cible car trop générique)
Maillage totalement manuel (comme le schéma :)
61. 14042016 | #SEOupdate2016
pour résumer
C’EST L’INTENTION QUI COMPTE!
L’utilisateur formule sa requête
Google (RankBrain) reformule cette intention,
pour, au-delà des mots exprimés,
formuler ce dont l’utilisateur a réellement besoin.
Google compare cette intention reformulée avec les contenus indexés
(et pondère cette comparaison avec quelques centaines de critères autres …)
et affiche les résultats !
L’enjeu : fournir sur votre site les informations (les pages, le contenu)
répondant à ce que Google considère être les réels besoins de l’internaute.
Votre mission : identifier le contexte, intention et motivation de l’internaute
(c’est fini)
64. 14042016 | #SEOupdate2016
Pourquoi de la Data ?
Faire une course avec un bandeau sur les yeux ?
Tu peux même gagner la course si :
• Tes concurrents ne prennent pas le départ
• Tu as peu de concurrents
• Tes concurrents sont très mauvais
65. 14042016 | #SEOupdate2016
Qui suis-je en quelques data ?
Alexandre SANTONI
• Gérant de l'agence de visibilité KEEG
• Enseignant, conférencier
• Gérant e-commerce
• JCE, Rugby, Squash
Agence KEEG
• Référencement naturel
• Campagnes Adwords
• Webmarketing et Site Internet
66. 14042016 | #SEOupdate2016
Pourquoi de la Data ?
Bien avant
• Du mot-clé
• Du bourrin
• Des positions
NB : Depuis, l'ordinateur est le meilleur au jeu de Go
Avant
• Du filtre Google
• Penser autrement, changement de stratégie
67. 14042016 | #SEOupdate2016
Pourquoi de la Data ?
Maintenant
• Une concurrence accrue
• Un moteur intelligent (ou pas)
Un texte moyen ne suffit plus pour se positionner
(Et tout ce qui est moyen ne suffit plus)
De la donnée sémantique (et autres)
Eventuellement, un très bon rédacteur (et autres)
68. 14042016 | #SEOupdate2016
Pourquoi de la Data ?
Déroulé SEO 2016 :
1. Se mettre dans la peau de Google
2. Collecter des données
3. Analyser ces données
4. Calibrer des actions
69. 14042016 | #SEOupdate2016
Le SEO sans Data, est-ce bien raisonnable ?
#2
Je veux de la data !
(l’addition s’il vous plait)
70. 14042016 | #SEOupdate2016
Trouver de la Data
Peu de données de la part de Google
• Exploiter déjà celles-ci
Google Analytics
• Ex : Pages de destination
• Ex : Pages de sortie
Search Console :
• Ex : 404
• Ex : Positionnement
• Ex : Conseils d’optimisation
71. 14042016 | #SEOupdate2016
Trouver de la Data
Mais il faut faire mieux et plus !
• Avoir des informations sur son site
• Avoir des informations sur l'environnement
Avoir de la Data c'est :
• Savoir ce qu'on veut récolter
• Avoir des outils
72. 14042016 | #SEOupdate2016
Trouver de la Data
Deux niveaux dans l'approche Data :
• Votre site Internet
• L'environnement de votre site Internet
Comment savoir si votre site Internet est bon ?
Se plonger dans les yeux de Google et coller à ses demandes
75. 14042016 | #SEOupdate2016
Trouver de la Data
Google veut un site compréhensible et lisible
→ Données sémantiques (mots-clés et appui sémantique)
1.fr
79. 14042016 | #SEOupdate2016
Traiter efficacement la Data
Aller plus loin en croisant les données
• Visites et crawl Google
• Trust et visiteurs
• Crawl Google et niveaux de profondeur
• Et bien d'autres !
80. 14042016 | #SEOupdate2016
Traiter efficacement la Data
Sélectionner la donnée pour travailler efficacement
En fonction :
• Du site
• Du contexte
Pas besoin de tout ou de tout le temps
Ne pas se noyer sous la donnée !
La réalité d'un référencement réussi, c'est le travail
81. 14042016 | #SEOupdate2016
Traiter efficacement la Data
• Problématique possible du prix
• Problématique possible de la compétence
Aller voir une agence Référencement ;)
Merci à tous
Me contacter :
Alexandre SANTONI
alex@keeg.fr - 05 63 51 99 56 – www.keeg.fr
86. 14042016 | #SEOupdate2016
Oncrawl
« Les data au service de la performance SEO »
Principe
• Simuler l’exploration d’un site « façon Googlebot »
• Recouper ces data avec les traces du passage effectif de
Google (logs)
Utilité
• Comprendre la face cachée de Google
• Identifier les urls indexées ou non et pourquoi
• Aller plus loin dans l’optimisation on-site
87. 14042016 | #SEOupdate2016
Oncrawl : leviers SEO
• Performances des pages UX, temps de crawl et indexation
• Densité et qualité des contenus Pertinence et richesse sémantique
• Qualité du balisage Contenus uniques identifiés, crawlés, indexés
• Distribution du PageRank Popularité issue du maillage/architecture
• Exploration et indexation Optimisation du crawl via l’analyse de logs
89. 14042016 | #SEOupdate2016
Analyse des performances
Temps de chargement
=
Impact direct sur la qualité de crawl
Le volume de pages explorées
L’indexation
Et la prise en compte rapide de nouvelles optimisations
91. 14042016 | #SEOupdate2016
Analyse des contenus
Tendance SEO : inflation du volume de contenus
Le contenu riche est-il au bon endroit ?
Au service de quelles pages ?
Les pages pauvres en contenus sont-elles utiles à l’internaute ?
93. 14042016 | #SEOupdate2016
Balises et contenus
Balises dupliquées/vides = il y a un loup !
Les bonnes urls sont-elles réellement indexées ?
Quels types de pages sont dupliquées ? Raisons techniques ?
Quelle est leur valeur pour Google/l’internaute ?
Pourquoi l’avis de Gérard est-il dupliqué ?
95. 14042016 | #SEOupdate2016
Balises et contenus
Problème de réécriture d’url pour Gérard…
Une erreur facile à corriger via le fichier .htaccess
Mais difficile à identifier par la simple exploration manuelle
Une url inutile de moins à explorer pour Google
97. 14042016 | #SEOupdate2016
Simuler le Pagerank
L’Inrank, le PageRank d’Oncrawl
Popularité d’une page calculée fonction de sa profondeur, du nombre et de la
pertinence des liens reçus
Inrank faible : faible potentiel d’exploration pour Google
Qualité et volume des liens à repenser
pour répondre aux contraintes du « surfer aléatoire* »
*Probabilité d’une page à être visitée par un internaute
99. 14042016 | #SEOupdate2016
Les données structurées en 1 coup d’œil
Données structurées = call to action
Chaque clic compte = offrir un aperçu sexy des contenus
dès les SERP
…sans oublier la compréhension de vos contenus par
Google
101. 14042016 | #SEOupdate2016
Analyse des logs
Identifier les pages crawlées par Google par catégorie
(produits, listes, édito…)
Détecter les zones d’ombre et leur niveau de profondeur :
des milliers de pages explorées en trop qui prennent des
ressources serveur à Google.
Selon leur valeur utilisateur, optimiser l’architecture du site
103. 14042016 | #SEOupdate2016
Analyser les logs/maillage interne
Plus une page est maillée,
plus elle est crawlée par Google
=
Impact direct sur la qualité du crawl
Le volume de pages explorées
L’indexation
Et la prise en compte rapide de nouvelles optimisations
104. 14042016 | #SEOupdate2016
+ d’Oncrawl ?
Découvrir
Oncrawl.com
Tester
https://app.oncrawl.com/signup?plan=free
Le test par Objectif Papillon
Objectifpapillon.fr/blog/oncrawl-le-test.html