Ce diaporama a bien été signalé.
Nous utilisons votre profil LinkedIn et vos données d’activité pour vous proposer des publicités personnalisées et pertinentes. Vous pouvez changer vos préférences de publicités à tout moment.

La casa de SEO : les questions à se poser pour le casse SEO parfait

2 050 vues

Publié le

Slide 7 accessible ici: https://imgur.com/a/Vmqjl2C
"Les questions à se poser en prévision du braquage de l'algo de Google". Indexation, Crawl, Pagination, Webperf: différents axes du SEO abordés sous la forme de questions réponses afin de parfaire sa stratégie SEO.
C'est toujours mieux avec les commentaires, il fallait être au #webcampday ;)

Publié dans : Internet

La casa de SEO : les questions à se poser pour le casse SEO parfait

  1. 1. La casa de SEO Les questions à se poser pour le casse SEO parfait
  2. 2. 2 Consultant SEO chez SEO Hackers Aymeric Bouillat • Ancien webmaster recyclé en consultant SEO • Des affinités avec le SEO technique • Et un blog plus trop à jour…. https://www.yapasdequoi.com
  3. 3. Etat des lieux Préparer son casse 1
  4. 4. 10
  5. 5. 5 Détecter les pages avec peu de contenu Nombre de mots / poids de la page (crawler comme Sreaming Frog)
  6. 6. 6 Détecter les pages sans articles/produits Recherche de footprints (messages d’erreur des CMS)
  7. 7. 7 Comment les traiter? Exemple pour une page catégorie vide (site e-commerce) : Status HTTP 410 s
  8. 8. 10
  9. 9. 9 Préparer le terrain avant de déployer sa stratégie « J’ai 5.000 pages de faible qualité dans l’index? » (facettes, tri, paramètres d’URL & co)
  10. 10. 10 Quel potentiel pour ces URL ? Redirection 301 ? Erreur 410 ? Noindex ? Robots.txt ?
  11. 11. 11 URL non pertinente dans l’index URL générant des impressions dans les pages de résultats (Search Console) ? Redirection 301 vers la page parente URL recevant des liens externes ? Besoin d’une désindexation rapide ? Possibilité de modifier les liens de la navigation ? Directive « noindex » (meta ou X-Robots-Tag) Status HTTP 410 Restriction de crawl pour ces URL dans le robots.txt OUI OUI OUI NON NON Supprimer les liens / obfuscation JS OUI X jours + tard NON
  12. 12. 12 “URL d’un jour, URL toujours”
  13. 13. 10 … ,
  14. 14. 14 Faire de la reconnaissance, avant l’exécution du plan Les sous-domaines peuvent parfois être - source de duplicate content (ex: test.domain.com) - un bon vivier de liens (site évènementiel oublié)
  15. 15. 15 Trouver les sous-domaines d’un NDD Commande: site:domain.com –inurl:www –inurl:blog … https://transparencyreport.google.com/https/certificates
  16. 16. 16 La crème de la crème pour trouver les sous-domaines Aquatone - https://github.com/michenriksen/aquatone
  17. 17. 17 Opportunité manquée…
  18. 18. Crawl Ce qui se passe à l’intérieur de Google 2
  19. 19. 19 On pense avoir tout prévu avec la meilleure des stratégies, il y a toujours des imprévus et problèmes à régler… “ “
  20. 20. 10
  21. 21. 21 OUI! Toute analyse de logs est bonne à faire Site d’autorité avec 2000 pages connues et indexées, Plus d’1,2 million d’URL crawlées / jour?!
  22. 22. 22 Comprendre les réactions de Googlebot, pour mieux le dompter Spider trap : moteur à facettes crawlable, moyenne de 13,8 hits de Google par seconde :o Impact sur les performances du site!
  23. 23. En cas de modification de structure, Google étendra son crawl budget de façon temporaire Google sera moins regardant sur des sites d’autorité Important pour la rotation du crawl, en fonction du nombre d’URL total Le crawl budget = une vitesse de croisière 23 Notion de crawl budget, oui mais…
  24. 24. 24
  25. 25. 25 “Que se passe t-il chez Googlebot ?” Rendu JS côté client /wp-admin/admin-ajax.php?action=heateor_sss_sharing_count&urls%5B%5D=https%3A%2F%2........ /wp-admin/admin-ajax.php?action=heateor_sss_sharing_count&urls%5B%5D=https%3A%2F%2........ /wp-admin/admin-ajax.php?action=heateor_sss_sharing_count&urls%5B%5D=https%3A%2F%2........ ………………
  26. 26. 26 La Search Console vous induit en erreur… « Pages explorées par jour »… Really?!
  27. 27. 27 Googlebot indexe vos contenus en 2 temps
  28. 28. 28 Et les résultats mettent plus de temps à être visibles Implémentation des recommandations
  29. 29. 30 Interprétation du JS : oui, mais jusqu’où? Test de plusieurs frameworks/librairies: http://jsseo.expert
  30. 30. Ce qu’il ne faut PAS utiliser La fonction « Explorer comme Google »La commande « cache: » 31
  31. 31. « Le bon et le mauvais JS » Bah, le bon JS, il est interprété par Google quoi Et le mauvais JS, il est interprété par Google, ou pas… 32
  32. 32. Exemple d’un mauvais JS Même avec un rendu HTML, ça n’est pas encore ça… 33
  33. 33. Et non, il n’interprète pas si bien le JS SSR (Server Side Rendering) :Rendu via des outils externes : Avant de se jeter dans la gueule du loup, tester chaque typologie de page sur un site « témoin » 34 etc… Serveur de cache needed!
  34. 34. Pagination Au coeur de la machine - onsite 3
  35. 35. J'admire les gens qui vont jusqu'au bout de leurs idées sans se poser la question de savoir si elles sont bonnes. “ “
  36. 36. Les problèmes que posent la pagination Budget de crawl Duplication de contenu Qualité du contenu Dilution du PageRank 37
  37. 37. 9
  38. 38. Plusieurs méthodes? Laquelle choisir… Vision Articles vs Listings de produits Canonical « view all » vs prev/next 39
  39. 39. Structure pour un listing de produits Accès à chaque produit en moins de 4 clics Dizaine en cours, dizaines de la centaine en cours, centaines 40
  40. 40. Structure pour un listing d’actualités Pagination par date + limitation de perte de jus en page n°1  Page n°2 ouvre accès à la pagination  Page n°1 / Mars 2018  Page n°1, lien vers la page n°2 41
  41. 41. Avoir une pagination optimale pour son casse SEO Dépend de la typologie du site Des besoins de maillage Du nombre de produits par catégorie Du ratio pages de pagination / vs autre pages 42
  42. 42. 9
  43. 43. Indexation de la pagination Les balises prev/next sont la canonical de la pagination “ “ Noindex et prev/next ne sont pas incompatibles, mais elles ne font pas sens… 44
  44. 44. Le noindex est très peu crawlé Noindex, follow pouvant être considéré comme noindex, nofollow selon John Mueller (ce qui parait logique …) 45
  45. 45. 9
  46. 46. Oui, avec une navigation alternative 47
  47. 47. On modifie l’URL via Histpory API (HTML5) http://scrollsample.appspot.com/items 48
  48. 48. Performance Pas de temps à perdre… 4
  49. 49. Comprendre les mesures de performance https://goo.gl/qqKDpb Chrome User Experience Report : utilisé par l’algo de Google… https://developers.google.com/speed/pagespeed/insights 51
  50. 50. Votre ennemi = les ressources tierces http://requestmap.webperf.tools 52 Visualisation des requêtes par type, effectuées à partir d’une page + un cercle est gros, plus le poids du fichier téléchargé est important
  51. 51. Des éléments qui ne seront pas toujours vus, ou utilisés 50 requêtes pour environ 600 Ko de données 30 requêtes pour environ 500 Ko de données 53
  52. 52. 9
  53. 53. Images chargées non visibles dans la page? 22 images chargées + redimensionnées à l’affichage = 1,5 Mo 55
  54. 54. Des styles CSS chargés, mais inutiles? 99% des 456 Ko du fichier « js_composer.min.css » inutilisés" 1 : Show console drawer 2 : Coverage 56
  55. 55. Toutes mes pages seront-elles scrollées à 100%? Vu par l’utilisateur Réellement chargé  Utiliser le Lazyloading 57
  56. 56. Les outils ont leur propre système de notation Des recommandations parfois contradictoires : « Limiter le nombre de requêtes DNS ou utiliser un CDN? » 59
  57. 57. Le dernier en date: Lighthouse Des infos précises sur l’impact de chaque optimisation: Ko gagnés – millisecondes gagnées 60
  58. 58. http://heatmap.webperf.tools/ Visualiser les ressources lentes à charger 61 Temps d’affichage de chaque pixel (rouge = lent / jaune = rapide)
  59. 59. De l’analyse, et du bon sens! « Waterfall » pour détecter les éléments qui ralentissent le chargement (temps de réponse + JS + images, etc.) 62
  60. 60. Des directives Les règles à respecter 5
  61. 61. Effet des directives User-agent du robots.txt Répertoire /private/, crawlé ou pas? User-agent: * Disallow: /private/ User-agent: Googlebot Disallow: /search.php 64
  62. 62. And never forget, pour un casse efficace Les fichiers .htaccess sont le mal! 65 « D ’une manière générale, il vaut mieux éviter d’utiliser les fichiers .htaccess »
  63. 63. Le SEO, c’est comme une bicyclette, il faut veiller et tester pour ne pas perdre l’équilibre “ “ #test&learn
  64. 64. Vous avez les clés, à vous de jouer!
  65. 65. THANKS! Des questions? Retrouvez moi sur : @aymerictwit Dédicace à ceux qui m’ont permis d’élaborer ce plan, au travers d’échanges sur des problématiques SEO : @5eg, @jambonbuzz, @diije, @ecribouille, @loukilaymen, @raphseo, @patrickvalibus et @theblackmelvyn  Merci à l’équipe du pour son accueil ! https://fr.linkedin.com/in/aymericbouillat

×