Ce diaporama a bien été signalé.
Nous utilisons votre profil LinkedIn et vos données d’activité pour vous proposer des publicités personnalisées et pertinentes. Vous pouvez changer vos préférences de publicités à tout moment.

Petit dejeuner sf 180419 actualite seo sea

341 vues

Publié le

Actualité SEO SEA

Publié dans : Marketing
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Petit dejeuner sf 180419 actualite seo sea

  1. 1. SEO – Votre priorité 2018 optimiser les performances de votre site Web Actualités SEO, Content marketing et E-commerce, Google Shopping, Crawl… 1 @s4sight Petit Déjeuner SEOSEA Matinée Conférences 09H15 > Actualité SEO/SEA Intervenant : Philippe Yonnet – Président – Search Foresight
  2. 2. Sommaire 2 Retour sur la balise Rel next / Rel prev Mise en cache du robots.txt Problème d’indexation Google EAT critère de classement
  3. 3. Rel Prev / Rel Next Annonce de Google le 21/03 John Muller (Google) : « nous n’utilisons plus du tout les liens rel-next/prev Suivi par : « Après avoir évalué nos signaux d’indexation, nous avons décidé de ne plus prendre en compte le rel = prev / next. Des études montrent que les utilisateurs aiment le contenu d'une seule page; utilisez- le quand cela est possible, mais les contenus en plusieurs parties sont également acceptables pour la recherche Google. Sachez et faites ce qu'il y a de mieux pour * vos * utilisateurs!
  4. 4. Et donc ? Qu’est-ce que ça change ? Rien ! Google nous dit qu’il ne prend plus en compte les link rel=next/prev pour l’indexation Traduction > les pages de contenu paginé sont lues et indexées, comme les autres pages Ca ne change rien pour le crawl et les link rel=next/prev sont des indications précieuses pour les robots ! Il faut donc continuer à les mettre en place, aussi pour les raisons suivantes : Les autres moteurs les prennent en compte, comme Bing Cela reste une bonne pratique d’accessibilité à appliquer pour un site web ! 4M
  5. 5. Mise en cache du robots.txt On sait que maintenant, Google garde en cache les robots.txt pendant 24h. Objectif > limiter les impacts côté serveur Pendant 1 journée, les URL sont crawlées en fonction de ce robots.txt En quoi est-ce utile ? Si la structure des URL est modifiée (refonte, migration, etc…), et que le robots.txt est mis à jour, le soumettre 24h à l’avance d’une MEP Ce que l’on ne sait pas …. Si soumettre le robots.txt dans la Search Console a un impact
  6. 6. Bug de désindexation du 5/04 - historique Panique à bord > désindexations inexpliquées de pages
  7. 7. Bug de désindexation du 5/04 - historique Panique à bord > désindexations inexpliquées de pages Selon Moz Selon Moz, la baisse de la journée du 5 avril était de 4,0%, suivie d'une reprise, puis d'une deuxième baisse très similaire, de 4,4% le 7/04. Tous les sites n’ont pas été impactés Cela peut concerner plusieurs pages sur un même site, ou aucune Avez-vous vu des changements significatifs dans le rapport de couverture de l’index dans votre Search Console ?
  8. 8. Nouvel opérateur sur Google pour renseigner une date ("before:" & "after:") Pour de nombreuses recherches, la recherche d'informations récentes garantit souvent la meilleure pertinence. Cependant, parfois, les gens veulent trouver des informations plus anciennes, mais aussi pertinentes. Nos outils ont longtemps rendu cela possible. Nous testons maintenant les nouvelles commandes avant: et après: pour rendre cela encore plus facile ....
  9. 9. Search Console : Un nouveau filtre "Android App" pour nos rapports Avez-vous une application Android associée à votre site Web? Dans Search Console, vous pouvez maintenant voir les clics, les impressions, le CTR et la position de l'application avec une apparence de recherche distincte dans le rapport de performances.
  10. 10. Search Console : nouveau rapport « discover » Un rappel rapide: Qu'est-ce que Discover? Discover est une fonctionnalité de Google Search qui permet aux utilisateurs de rester au courant de tous leurs sujets favoris, sans avoir besoin d'une requête.
  11. 11. Quelle version de Chrome est utilisée par Google ? Deep Crawl a réalisé un test très intéressant pour le savoir Depuis quelques années, le moteur de rendu de Google utilise une variante de Chrome v41 (publiée en 2015) pour visualiser les pages. Ils ont testé un certain nombre de fonctions JavaScript pour voir comment elles étaient interprétées. Il semble que Google utilise actuellement la version 69 de Chrome, publiée en septembre 2018, mais continue d’utiliser une ancienne version dans certains cas spécifiques. A retenir : Pas de changement du User agent pour le moment. Il s’agirait probablement d’un test … A suivre donc … Google serait donc capable de lire des fonctions JavaScript plus modernes… … Ce qui n’est toujours pas le cas de Bing et des autres moteurs.
  12. 12. Merci ! Des questions ? Restons en contact ! Maxime GRIMAUD-DELATTRE @maximegrimaudd - 12 - Consultant SEO

×