Les moteurs de recherche proposent des outils gratuits pour les webmasters. Ces « Search Consoles » sont particulièrement utiles pour détecter les points bloquants au bon référencement de votre site. On pense souvent à la Search Console de Google, mais avez-vous déjà testé les outils de Bing ou Yandex ?
Surveillance de vos liens externes, alternative au « Not Provided », mise en place d’alertes, résolution de problèmes d’indexation, …Découvrez quelques astuces pour tirer parti de ces outils !
Un aperçu de l'utilisation des données de logs et des données de crawl à fins d'audit et d'analyse pour le SEO. Et les avantages de l'analyse croisée logs+crawl.
Conférence présentée au SEO Camp'us 2014 par Adrien Ménard, PDG de Botifiy, et Philippe Yonnet, DG de Search Foresight
Crawl & analyse de logs SEO - SEOcampus 2013
Retrouvez une explication complète de la présentation sur mon blog : http://www.watussi.fr/crawl-et-analyse-de-logs-seo-seocampus-2013
Le cache côté client, le cache côté serveurs et leur impact sur le SEO et l'expérience utilisateur. Conférence effectuée lors du SEOCamp'us Paris 2017 avec Benoit Chevillot de Divioseo
Accompagner avec le numerique - Intervention JNE ACOP-F Albi 2016jfcastell
Utiliser un appareil numérique pour se documenter nécessite un minimum d’outils pour permettre au consultant et au professionnel d’accéder à toute l'information correctement. Les sites peuvent être envahis de publicités, la police trop petite pour être lisible, l’impression difficile, la possibilité de retrouver l’information complexe…
Si vous rencontrez ce type de difficultés, cette présentation vous montrera quels outils complémentaires existent et en quoi ils peuvent vous faciliter l’accompagnement.
Javascript et indexation, où en est-on ? - SEO Camp'us Paris 2016iProspect France
Le jeudi 7 avril à 11h45, Madeline Pinthon a donné une conférence sur les bonnes pratiques du Javascript pour indexer les pages sur les moteurs de recherche.
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team WebLa Team Web
Conférence du 27 janvier 2016, pour La Cordée.
Découvrez comment optimiser votre Référencement Naturel (SEO), être plus visible et profitez du Take Away pour checker avant de publier un nouvel article ou une nouvelle page !
Les moteurs de recherche proposent des outils gratuits pour les webmasters. Ces « Search Consoles » sont particulièrement utiles pour détecter les points bloquants au bon référencement de votre site. On pense souvent à la Search Console de Google, mais avez-vous déjà testé les outils de Bing ou Yandex ?
Surveillance de vos liens externes, alternative au « Not Provided », mise en place d’alertes, résolution de problèmes d’indexation, …Découvrez quelques astuces pour tirer parti de ces outils !
Un aperçu de l'utilisation des données de logs et des données de crawl à fins d'audit et d'analyse pour le SEO. Et les avantages de l'analyse croisée logs+crawl.
Conférence présentée au SEO Camp'us 2014 par Adrien Ménard, PDG de Botifiy, et Philippe Yonnet, DG de Search Foresight
Crawl & analyse de logs SEO - SEOcampus 2013
Retrouvez une explication complète de la présentation sur mon blog : http://www.watussi.fr/crawl-et-analyse-de-logs-seo-seocampus-2013
Le cache côté client, le cache côté serveurs et leur impact sur le SEO et l'expérience utilisateur. Conférence effectuée lors du SEOCamp'us Paris 2017 avec Benoit Chevillot de Divioseo
Accompagner avec le numerique - Intervention JNE ACOP-F Albi 2016jfcastell
Utiliser un appareil numérique pour se documenter nécessite un minimum d’outils pour permettre au consultant et au professionnel d’accéder à toute l'information correctement. Les sites peuvent être envahis de publicités, la police trop petite pour être lisible, l’impression difficile, la possibilité de retrouver l’information complexe…
Si vous rencontrez ce type de difficultés, cette présentation vous montrera quels outils complémentaires existent et en quoi ils peuvent vous faciliter l’accompagnement.
Javascript et indexation, où en est-on ? - SEO Camp'us Paris 2016iProspect France
Le jeudi 7 avril à 11h45, Madeline Pinthon a donné une conférence sur les bonnes pratiques du Javascript pour indexer les pages sur les moteurs de recherche.
Comprendre le Référencement Naturel et améliorer sa visibilité - La Team WebLa Team Web
Conférence du 27 janvier 2016, pour La Cordée.
Découvrez comment optimiser votre Référencement Naturel (SEO), être plus visible et profitez du Take Away pour checker avant de publier un nouvel article ou une nouvelle page !
La casa de SEO : les questions à se poser pour le casse SEO parfaitAymeric Bouillat
Slide 7 accessible ici: https://imgur.com/a/Vmqjl2C
"Les questions à se poser en prévision du braquage de l'algo de Google". Indexation, Crawl, Pagination, Webperf: différents axes du SEO abordés sous la forme de questions réponses afin de parfaire sa stratégie SEO.
C'est toujours mieux avec les commentaires, il fallait être au #webcampday ;)
Support de conférence où j'ai abordé les sites thématiques, les liens de qualité avec la presse ou des partenaires influents dans un environnement post penguin.
Comment un grand site média a augmenté son trafic organique de plus de 80% gr...Julien Ferras
Cette étude de cas présentera la méthodologie utilisée pour améliorer la visibilité de Paris Match et les bonnes pratiques pour atteindre ces résultats.
Analyse Logs + crawl : Retour sur 10 ans d’expérience - Mathieu Chapon - SEOC...SEO CAMP
Mathieu Chapon vous propose un tour d’horizon des principaux enseignements qu’on tire de ces analyses ainsi que les erreurs à ne pas commettre.
Les rapports obtenus sont en général complexes et leurs mauvaises interprétations peuvent vous exposer à de mauvaises conclusions. Enfin, vous aurez l’occasion de voir les optimisations qui vous permettent de mieux maitriser ce fameux budget de crawl.
Pénalités Google : Google Penguin, Google Panda : quelle stratégie de Google?Woptimo
Dans cette présentation, réalisée pour le SMX Paris de juin 2012, Sébastien Monnier, ancien membre de l'équipe Qualité de recherche de Google analyse les pénalités de Google, en particulier Google Penguin, sous un angle original.
Comment se sortir d'une pénalité Google ? Présentation effectuée par Sébastien Monnier, Woptimo / Search Quality Alliance, lors du SEO Camp'us en mars 2012.
Les sujets abordés sont les suivants :
- comment reconnaître une pénalité Google ?
- quels sont les types de pénalités ?
- comment éviter d'avoir une pénalité ?
- comment sortir d'une pénalité Google ?
Conférence de Daniel Roch lors du SEOCampus 2018
Sujet : " les outils SEO ne servent à rien"
Découvrez pourquoi les tools et logiciels SEO ne servent à rien parfois, pourquoi ils sont mal utilisés et surtout pourquoi ils sont faillibles. Vous aurez ainsi mieux vous en servir en référencement naturel !
Rentrer dans la tête de vos utilisateurs grâce aux statistiques de fréquentation:ratio
Google Analytics, l’outil de statistiques de fréquentation le plus populaire, peut être décourageant avec son interface touffue et la quantité de données et d’options disponibles.
Cette présentation vous montrera comment se focaliser sur quelques indicateurs bien précis pour mieux comprendre les besoins des utilisateurs de votre site internet.
7 conseils pour améliorer son référencement naturel (SEO)Editoile
Comment faire remonter son site internet dans les résultats des moteurs de recherche ? Quelles sont les bonnes pratiques actuelle du SEO (Search Engine Optimization) ? Par quoi commencer pour améliorer le référencement naturel ou organique de ses contenus web ?
On y parle Google, Panda, Pingouin, Colibri, expressions-clés, longue traîne, cocon sémantique, requêtes conversationnelles, content marketing, rédacteurs web, etc.
Cette présentation a été diffusée par Gabrielle Denis, directrice de l'agence de contenu web Editoile à Bordeaux, lors d'une matinée spéciale référencement naturel et payant organisée avec Generaleads.
Tuni'SEO 2014 : Utiliser un crawler pour optimiser son site pour le SEOTuni' SEO
Le crawling est une étape indispensable à l'indexation. Pour comprendre le fonctionnement de votre site et améliorer son référencement, Philippe Yonnet vous explique au Tuni'SEO 2014 les bonnes méthodes pour optimiser son potentiel de crawl.
Directeur de l’agence Search Foresight du groupe My Media, Président fondateur de l’Association SEO Camp, Philippe YONNET a été tour à tour Directeur du département internet du Groupe Studyrama, Directeur Général Adjoint de l’agence Aposition/Isobar, SEO International Director chez W3 Inc (Vivastreet), et Directeur SEO International chez Twenga.
La casa de SEO : les questions à se poser pour le casse SEO parfaitAymeric Bouillat
Slide 7 accessible ici: https://imgur.com/a/Vmqjl2C
"Les questions à se poser en prévision du braquage de l'algo de Google". Indexation, Crawl, Pagination, Webperf: différents axes du SEO abordés sous la forme de questions réponses afin de parfaire sa stratégie SEO.
C'est toujours mieux avec les commentaires, il fallait être au #webcampday ;)
Support de conférence où j'ai abordé les sites thématiques, les liens de qualité avec la presse ou des partenaires influents dans un environnement post penguin.
Comment un grand site média a augmenté son trafic organique de plus de 80% gr...Julien Ferras
Cette étude de cas présentera la méthodologie utilisée pour améliorer la visibilité de Paris Match et les bonnes pratiques pour atteindre ces résultats.
Analyse Logs + crawl : Retour sur 10 ans d’expérience - Mathieu Chapon - SEOC...SEO CAMP
Mathieu Chapon vous propose un tour d’horizon des principaux enseignements qu’on tire de ces analyses ainsi que les erreurs à ne pas commettre.
Les rapports obtenus sont en général complexes et leurs mauvaises interprétations peuvent vous exposer à de mauvaises conclusions. Enfin, vous aurez l’occasion de voir les optimisations qui vous permettent de mieux maitriser ce fameux budget de crawl.
Pénalités Google : Google Penguin, Google Panda : quelle stratégie de Google?Woptimo
Dans cette présentation, réalisée pour le SMX Paris de juin 2012, Sébastien Monnier, ancien membre de l'équipe Qualité de recherche de Google analyse les pénalités de Google, en particulier Google Penguin, sous un angle original.
Comment se sortir d'une pénalité Google ? Présentation effectuée par Sébastien Monnier, Woptimo / Search Quality Alliance, lors du SEO Camp'us en mars 2012.
Les sujets abordés sont les suivants :
- comment reconnaître une pénalité Google ?
- quels sont les types de pénalités ?
- comment éviter d'avoir une pénalité ?
- comment sortir d'une pénalité Google ?
Conférence de Daniel Roch lors du SEOCampus 2018
Sujet : " les outils SEO ne servent à rien"
Découvrez pourquoi les tools et logiciels SEO ne servent à rien parfois, pourquoi ils sont mal utilisés et surtout pourquoi ils sont faillibles. Vous aurez ainsi mieux vous en servir en référencement naturel !
Rentrer dans la tête de vos utilisateurs grâce aux statistiques de fréquentation:ratio
Google Analytics, l’outil de statistiques de fréquentation le plus populaire, peut être décourageant avec son interface touffue et la quantité de données et d’options disponibles.
Cette présentation vous montrera comment se focaliser sur quelques indicateurs bien précis pour mieux comprendre les besoins des utilisateurs de votre site internet.
7 conseils pour améliorer son référencement naturel (SEO)Editoile
Comment faire remonter son site internet dans les résultats des moteurs de recherche ? Quelles sont les bonnes pratiques actuelle du SEO (Search Engine Optimization) ? Par quoi commencer pour améliorer le référencement naturel ou organique de ses contenus web ?
On y parle Google, Panda, Pingouin, Colibri, expressions-clés, longue traîne, cocon sémantique, requêtes conversationnelles, content marketing, rédacteurs web, etc.
Cette présentation a été diffusée par Gabrielle Denis, directrice de l'agence de contenu web Editoile à Bordeaux, lors d'une matinée spéciale référencement naturel et payant organisée avec Generaleads.
Tuni'SEO 2014 : Utiliser un crawler pour optimiser son site pour le SEOTuni' SEO
Le crawling est une étape indispensable à l'indexation. Pour comprendre le fonctionnement de votre site et améliorer son référencement, Philippe Yonnet vous explique au Tuni'SEO 2014 les bonnes méthodes pour optimiser son potentiel de crawl.
Directeur de l’agence Search Foresight du groupe My Media, Président fondateur de l’Association SEO Camp, Philippe YONNET a été tour à tour Directeur du département internet du Groupe Studyrama, Directeur Général Adjoint de l’agence Aposition/Isobar, SEO International Director chez W3 Inc (Vivastreet), et Directeur SEO International chez Twenga.
Quelle stratégie SEO restera efficace dans les mois qui viennentPhilippe YONNET
Présentation de Philippe Yonnet et Jean Marc Merazian effectuée à l'occasion du salon Ecommerce Paris 2015
Les usages de l'internet sont en évolution rapide : mobile, multiécrans, nouvelles interfaces homme machine. Les moteurs de recherche, et en particulier Google, suivent cette évolution, et leurs algorithmes se sophistiquent de plus en plus. Quel impact cela a-t'il sur les techniques de SEO ? Quelles sont les approches gagnantes pour optimiser un site qui seront encore valables dans les mois et les années qui viennent ? Comment continuer à capter le trafic provenant des moteurs de recherche ?
Conférence SEO Joomla au Joomla!Day Oran 2011
- Introduction SEO
- Fonctionnement d’un moteur de recherche
- PageRank, TrustRank, SERP
- Paramètres favorisants
- Facteurs pénalisants
- Référencement site Joomla
- Outils
Conférence sur le positionnement Web présentant le jargon des moteurs de recherche, les règles de base, les techniques d'optimisation et les mesures de succès.
2. QU’EST-CE QUE LE WEBSPAM ?
Une tentative de définition
Le webspam, c’est ce qui est conçu dans le but d’attirer des
internautes venus des moteurs de recherche vers une ou
plusieurs pages web données.
La frontière est floue
Il est parfois difficile de faire la différence entre une page de
« faible qualité » légitime et du webspam de « bonne qualité ».
3. QU’EST-CE QUE LE WEBSPAM ?
Une question d’intention
C’est avant tout la volonté de « nuisance » qui caractérise le webspam.
Finalement, une question de jugement
La méthode standard pour déterminer ce qu’est le webspam, c’est
l’analyse du comportement des êtres humains face aux pages web.
• Monitoring du comportement des internautes dans le moteur (retour
post-visite, temps passé, etc.)
• Quality Rating
4. 2TYPES DE WEBSPAM
Zoltán Gyöngyi, Hector Garcia-Molina. Web SpamTaxonomy. First International Workshop on Adversarial
Information Retrieval on the Web (at the 14th International World Wide Web Conference), Chiba, Japan, 2005.
5. 2TYPES DE WEBSPAM
Zoltán Gyöngyi, Hector Garcia-Molina. Web SpamTaxonomy. First International Workshop on Adversarial
Information Retrieval on the Web (at the 14th International World Wide Web Conference), Chiba, Japan, 2005.
2 ? Non, 3 types
de webspam
6. 3TYPES DE WEBSPAM
Les liens népotiques
Il s’agit des liens que les référenceurs obtiennent entre eux, sur leurs réseaux.
Les structures d’amplification du PageRank
Il s’agit des schémas de linking qui améliorent de manière optimale le
PageRank.
Le contenu « spammy »
Il s’agit du contenu conçu pour maximiser la pertinence d’une page web ou
pour remplir au kilomètre des pages web de faible importance.
7. POURQUOI 3TYPES ?
Un moteur construit son classement en choisissant les pages les plus
importantes parmi celles qui sont pertinentes
Pertinence pour R
Classement global
+-
des liens !
un schéma
optimal sur ces
liens
du contenu
optimisé !
un bon
positionnement+ + =
8. POSITIONNEMENT
VERSUS SPAM
Il ne faut pas confondre !
Un critère de positionnement et un critère de spam sont deux choses indépendantes
• un critère peut être les deux à la fois (EMD par exemple)
• Il y a un traitement séparé des deux
Il y a interférence
Quand on regarde les SERPs, il est difficile de déterminer les critères de positionnement
car les filtres anti-spam agissent après eux.
Dans tous les cas, on ne sait que corréler
Au mieux, on ne sait que mettre en correspondance des comportements co-incidentaux.
On ne peut jamais déterminer la cause exacte d’un phénomène observé dans les SERPs.
9. POSITIONNEMENT
VERSUS SPAM
Ce n’est pas parce qu’un critère est corrélé positivement pour
le positionnement que son optimisation n’est pas considérée
comme du spam.
Source : http://moz.com/search-ranking-factors
10. COMBATTRE LE WEBSPAM
Détection et suppression : filtrage
• Déterminer les caractéristiques du spam
• Détecter les pages et liens qui ont ces caractéristiques
• Les supprimer de l’index ou moduler la transmission de PR
Déclassement : update
• Sans forcément le détecter
•Annuler son effet sur les résultats du classement
11. COMBATTRE LE WEBSPAM
Détection et suppression : filtrage
• Déterminer les caractéristiques du spam
• Détecter les pages et liens qui ont ces caractéristiques
• Les supprimer de l’index ou moduler la transmission de PR
Déclassement : update
• Sans forcément le détecter
•Annuler son effet sur les résultats du classement
12. LES LIENS NÉPOTIQUES
Reconnaître les liens « sans valeur »
Recognizing Nepotistic Links on theWeb
Davison,AAAI-2000 Workshop on Artificial Intelligence for
Web Search
13. LES LIENS NÉPOTIQUES
Construction d’un filtre utilisant 75 critères, dont :
• même <title>
• domaines identiques
• les premiers octets de l’IP sont identiques
• il y a plus de X liens sortants de la page source
• whois « similaires »
Taux d’erreur : 9%
14. LE SPAM STRUCTUREL
Son objectif est de maximiser le PageRank d’une page cible
• /! Ne pas confondre PageRank réel et Toolbar PageRank (le PR)
• Il existe des structures pour atteindre l’optimal :
Zoltán Gyöngyi, Hector Garcia-Molina. Link Spam Alliances. 31st International Conference on
Very Large Data Bases (VLDB), 2005.
Elles sont détectables !
Thomas Largillier, Sylvain Peyronnet: Using Patterns in the Behavior of the Random Surfer to
Detect Webspam Beneficiaries.WISE Workshops 2010: 241-253
• Les spammeurs utilisent des structures non-optimales plus discrètes
15. LE SPAM STRUCTUREL
(RÉSULTATS OBTENUS SUR UN DATASET FOURNI PARYAHOO!)
Quantité %
Spam 116 401 16.85
Spam lié 16 497 5.54
Non
spam
609 307 11.46
Quantité %
Spam 8 406 1.22
Spam lié 88 069 29.58
Non
spam
132 931 2.50
16. LE SPAM STRUCTUREL
(RÉSULTATS OBTENUS SUR UN DATASET FOURNI PARYAHOO!)
Les motifs spammants usuels sont de deux types
Caractéristique du SPAM !
17. LE SPAM STRUCTUREL
(RÉSULTATS OBTENUS SUR UN DATASET FOURNI PARYAHOO!)
Caractéristique de ceux qui profitent du SPAM !
Les motifs spammants usuels sont de deux types
18. LE SPAM STRUCTUREL
(RÉSULTATS OBTENUS SUR UN DATASET FOURNI PARYAHOO!)
Caractéristique de ceux qui profitent du SPAM !
Les motifs spammants usuels sont de deux types
Ces deux types de motifs sont détectables
19. LE SPAM STRUCTUREL
(RÉSULTATS OBTENUS SUR UN DATASET FOURNI PARYAHOO!)
Caractéristique de ceux qui profitent du SPAM !
Les motifs spammants usuels sont de deux types
Ces deux types de motifs sont détectables
Le réseau naturel n’est pas détectable !
20. SPAM DE CONTENU
Son objectif est d’optimiser la pertinence d’une page ou de créer des pages dotées de « contenus » en
série
Un article à connaître, publié en 2006
Detecting spam web pages through content analysis
• Par Ntoulas, Najork, Manasse et Fetterly
• UCLA + Microsoft, publié à WWW 2006
Article qui fournit une méthode de détection basée sur un dataset réel
• Provenant d’un crawl de MSN Bot d’Août 2004
•105.5 millions de pages dont 55 millions en anglais
•18 000 pages ont été classées à la main (spam / non spam)
• Sur les 18 000, 14% de spam
Cet article présente la méthodologie standard pour créer un filtre
23. SPAM DE CONTENU EN 2006
Et de nombreux autres critères, dont :
• nombre de points/slashs/chiffres dans le nom de domaine
• taille du nom de domaine
• nombre de mots dans la page
• fraction du texte d’ancre
• taille moyenne des mots
!
25. SPAM DE CONTENU EN 2006
Résultats
Taux de reconnaissance du spam > 85%
Faux positifs ~ 1%
26. ETUDE WEBSPAM 2014
L’étude de Ntoulas, Najork, Manasse et Fetterly est ancienne
• Nous sommes en train de la refaire grâce à la communauté
(MERCI)
• Nous étudions de nouveaux critères
• Nous avons choisi une granularité plus fine (SPAM / LQ / HQ)
!
27. ETUDE WEBSPAM 2014
Trois étapes :
1. le crawl
2. la notation humaine
3. l’analyse des critères
Livrables :
• dataset qualifié
• des critères effectifs pour détecter le spam
• un classifieur
On devrait en être au 3…
Vous devriez être en train de
voir les nouveaux critères…
Mais ce n’est pas le cas, vous
allez découvrir pourquoi
maintenant…
28. LE CRAWL
L’objectif :
Obtenir 500 000 pages aléatoires représentatives du web
Pour cela, il faut crawler environ 1 milliard d’URL différentes et
tirer au hasard parmi elles.
Nous en sommes là.
29. LE CRAWL
L’objectif :
Obtenir 500 000 pages aléatoires représentatives du web
Pour cela, il faut crawler environ 1 milliard d’URL différentes et
tirer au hasard parmi elles.
Nous en sommes là.
Les problèmes :
• divers problèmes matériels
• dataset non représentatif
• « it’s a trap ! »
30. LA NOTATION
L’objectif :
Obtenir 5 notes pour chaque page du sous-dataset retenu
Pour cela, chaque page est présentée à un « quality rater » choisi
aléatoirement
Le QR note chaque page : SPAM oux LQ oux HQ oux NSP
Une page a ensuite un score de qualité dépendant des 5 notes
attribuées
On calculera le score Kappa lié au dataset
31. LA NOTATION
L’objectif :
Obtenir 5 notes pour chaque page du sous-dataset retenu
Pour cela, chaque page est présentée à un « quality rater » choisi
aléatoirement
Le QR note chaque page : SPAM oux LQ oux HQ oux NSP
Une page a ensuite un score de qualité dépendant des 5 notes
attribuées
On calculera le score Kappa lié au dataset
http://webspam.peyronnet.eu/demande.php
32. L’ANALYSE DES CRITÈRES
L’objectif :
Vérifier la validité des critères précédemment obtenus par
Ntoulas et al.
Fournir de nouveaux critères.
!
33. L’ANALYSE DES CRITÈRES
Quelques nouveaux critères potentiels :
• Ratio DF/NF : Ratio entre le nombre de liens en DoFollow et NoFollow
• Proximité sémantique : Est-ce que l’émetteur d’un lien est sur la même thématique que celui qui reçoit le lien ?
• Positions des liens : emplacement des liens sur la page
• Signaux d’auteur et partages sociaux
• TTFB versus chargement complet
• Résidu post-lemmatisation
• Coefficient de clustering
!
!