Google Penguin
Une évolution majeure contre le Spam SEO

                   1
Les critères du positionnement sur Google
Le référencement repose depuis
bien longtemps sur 3 piliers bien
identifiés :
 – La technique
 – Le contenu
 – Le linking

Depuis quelques années, les signaux
sociaux sont de plus en plus pris en
compte dans les critères de
positionnement

                                       2
Le linking pierre angulaire du positionnement
Le Page Rank, inventé par Larry Page (co-fondateur de Google), calcule la popularité de
chacune des pages du Web. C’est un élément fondateur de l’architecture de Google
                   PRa1 x A1 PRa2 x A2                PRan x An
        PR(B) = Σ ------------ + ------------- + …+ ------------
                      NL A1        NL A2            NL An
        A1, A2, …, An étant toutes les pages pointant vers B (A1,…; An : tous les backlinks de B)
        PrA : Page Rank de A
        NL A : nombre de liens sortants de A

  Page Rank = somme des backlinks pondérée par les page rank respectifs des pages



Cet algorithme démontre l’importance du maillage interne et externe pour le
positionnement d’un site web. En effet, une popularité forte permet de se positionner
sur des expressions concurrentielles, mais aussi d’augmenter le volume de crawl du site

                                                                     3
SEO : Black Hat vs White Hat
Deux types de référenceurs sont souvent opposés : « Black Hat SEO » et « White Hat
SEO ». La principale différence est le respect des T.O.S. (Terms of Services) de Google.

Les référenceurs "White hat" contribuent à la             Les techniques « Black Hat SEO » sont considérées
création d'un contenu de qualité ou de sites plus         comme des techniques de SPAM. Elles sont souvent
performants. Les top positions sur les expressions        plus efficaces à court terme sur les expressions très
les plus concurrentielles sont parfois difficiles à       concurrentielles (crédit, forex, ….), mais aussi très
atteindre avec ces techniques.                            risquées.
Google communique auprès des référenceurs sur les techniques White Hat et combat les techniques de Spam, en
luttant et communiquant contre le Black Hat.

Etre un référenceur White Hat permet d’éviter les risques de pénalité et de désindexation par Google.
Les techniques Black Hat, qui semblent attrayantes en termes de résultats immédiats, peuvent avoir des
conséquences désastreuses en termes d’image pour les marques et de trafic vers leurs sites, raison pour
laquelle Performics préconise depuis toujours les techniques White Hat pour ses clients.

                                                      4
Après Panda, Penguin


             5
Après Google Panda en 2011…Penguin en 2012 ?



L’année 2011 en SEO a été très fortement marquée         L’année 2012 sera certainement marquée par un nouvel
par les mises à jour Panda de Google, visant les         algorithme que Google appelle le “webspam algorithm
fermes de contenu.                                       update.” Il a pour objectif d’éradiquer les sites de Spam,
Les versions des mises à jour Panda continuent           notamment à travers les techniques de netlinking .
avec une nouvelle version lancée le 20 avril             Les premiers effets de cette mise à jour ont été
(Panda 3.5).                                             constatées en France le 25 avril 2012.
D’autres algorithmes ont eu de forts impacts, mais       Danny Sullivan (Search Engine Land) a baptisé cet
avec une portée médiatique moindre ("page layout         algorithme Penguin, terme déjà repris par la
algorithm" en Janvier 2012, par exemple).                communauté SEO (Penguin ou Pinguin selon les
                                                         sources)

                                                     6
La communication Google
                                         « Dans les prochains jours, nous lançons un changement important de l'algorithme destiné
                                         aux webspam. Le changement va diminuer le classement pour les sites que nous jugeons
                                         violer les directives de Google en matière de qualité.
                                         Nous avons toujours ciblé les sites spammant notre classement, et cet algorithme constitue
                                         une amélioration majeure dans nos efforts visant à réduire le spam et promouvoir le contenu
                                         de haute qualité. » *…+

                                         « La modification sera appliquée simultanément à l'ensemble des langues. Pour information,
                                         la première modification de notre algorithme, appelée "Panda", a eu une incidence
                                         significative sur environ 12 % des requêtes. Cet algorithme concerne environ 3,1 % des
                                         requêtes en anglais *…+ La modification va affecter environ 3 % des requêtes en allemand,
                                         en arabe ou en chinois, mais l'impact sera plus prononcé pour les langues plus largement
                                         concernées par le spam. Par exemple, 5 % des requêtes en polonais seront affectées. » *…+
         Matt Cutts
Head of Search Quality group in Google   Nous voulons que les personnes réalisant une optimisation du référencement "White Hat",
                                         voire celles qui ne procèdent à aucune forme d'optimisation, soient libres de se concentrer
                                         sur la création de sites uniques et attrayants…




                                                                     7
Les premiers constats

 L’update de Google est très récent, les premiers tests sont partiels et les premières
  conclusions sont susceptibles d'être complétées.
 L’impact de cet algorithme semble faible avec 3% des requêtes. Mais en le ramenant au
  nombre de requêtes quotidiennes sur Google (environ 4 milliards par jour), la mise à jour
  impacte environ 120 millions de requêtes par jour dans le monde !
 Beaucoup de variations de positions, peu de suppressions de pages dans l’index, mais de
  grosses pertes de visibilité, à travers une chute de 3, 10, 20, 100 voire 200 positions...
 Le marché français, connu par Google pour son réseau de référenceurs Black Hat, semble
  très affecté par cette nouvelle mise à jour.


                                              8
Les critères probables de l’algorithme
Google annonce deux principales types de techniques visées :

 La sur-optimisation de contenu (« keyword stuffing » ). Google annonce que cette mise à jour concerne les
  textes optimisés à outrance dans le site (textes avec un contenu excessivement dense, uniquement créé pour
  les moteurs et devenant même illisible pour les internautes). Les premiers tests semblent montrer que les
  critères sont pour le moment mineurs ou pas encore pris en compte.

 Le Netlinking sur-optimisé : selon nos premières études, cet algorithme semble porter en premier lieu sur le
  spam de netlinking. Les techniques de link- building via communiqués de presse et annuaires ne semblent pas
  directement impactées.
  Au-delà de la technique de link-building, les critères semblent porter davantage sur le type d’ancres et sur le
  volume d’ancres. Le premier critère qui ressort des études est la sur-optimisation des ancres externes. La
  distribution normale des ancres de liens étant composée d’ancres optimisées (ancre avec l’expression objectif)
  mais aussi d’ancres variées (du nom du domaine, d’image ou de mots clés génériques du type « cliquez ici »).
  Quelques autres critères probables :
         – Un fort ratio liens vs nombre de pages du site
         – Evolution du nombre de liens dans le temps (trop de nouveaux liens d’un coup peut paraître suspect)
         – Ratio âge du site & nombre de liens



                                                               9
Ce qu’il faut vérifier


                10
Les premiers points à vérifier
 Mon trafic chute : suis-je vraiment victime d’une pénalité ?
 Une baisse du trafic ou de position ne signifie pas obligatoirement une pénalité. Les
 changements de positions peuvent avoir bien d’autres causes qu’un changement
 d’algorithme. Ces causes peuvent être internes au site, mais le changement de position
 peut également provenir d’une meilleure optimisation des concurrents


 Faut-il continuer à faire du link building?
 Oui, plus que jamais. Le linking externe étant l’un des points fondateurs de l’architecture
 globale de Google, il sera toujours partie intégrante d’une stratégie SEO efficace.

 Mais toujours en maîtrisant la méthode de création des liens : avec une vitesse de
 production maîtrisée et un aspect naturel.


                                             11
Les premiers points à vérifier
 Où puis-je récupérer les ancres des liens externes ?
 Plusieurs sources de données sont possibles : données fournies par Google (Google
 Webmaster Tools) ou sources externes.
 Quelles que soient les sources, l’important est de définir les bons indicateurs.


 Est-ce que les ancres des liens sont trop ciblées ?
 Il est pertinent d’étudier le type de lien et surtout les ancres pointant vers mon site. L’étude
 des ancres doit prendre en compte des indicateurs de répartition (ratio entre le volume
 d’ancre ciblé et le volume d’ancre non pertinent - image, texte générique, domaine, etc..).




                                              12
Sources
 COMMUNICATION GOOGLE SUR LE SUJET :
  http://insidesearch.blogspot.fr/2012/04/another-step-to-reward-high-quality.html
  http://googlewebmastercentral.blogspot.fr/2012/04/another-step-to-reward-high-quality.html
  http://support.google.com/webmasters/bin/answer.py?hl=en&answer=35769#3*
 ACTUALITE GOOGLE PENGUIN :
  http://searchengineland.com/the-penguin-update-googles-webspam-algorithm-gets-official-name-119623
  http://searchengineland.com/penguin-update-recovery-tips-advice-119650
 BREVET GOOGLE LIE A CETTE EVOLUTION :
  http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch-
  adv.htm&r=1&f=G&l=50&d=PALL&S1=07302645&OS=PN/07302645&RS=PN/07302645

 CALCUL DU PAGE RANK : The Anatomy of a Large-Scale Hypertextual Web Search Engine   (Sergey Brin and Lawrence Page)
  http://infolab.stanford.edu/~backrub/google.html
 INFOGRAPHIES : www.elliance.com



                                                     13

Seo update google penguin_performics

  • 1.
    Google Penguin Une évolutionmajeure contre le Spam SEO 1
  • 2.
    Les critères dupositionnement sur Google Le référencement repose depuis bien longtemps sur 3 piliers bien identifiés : – La technique – Le contenu – Le linking Depuis quelques années, les signaux sociaux sont de plus en plus pris en compte dans les critères de positionnement 2
  • 3.
    Le linking pierreangulaire du positionnement Le Page Rank, inventé par Larry Page (co-fondateur de Google), calcule la popularité de chacune des pages du Web. C’est un élément fondateur de l’architecture de Google PRa1 x A1 PRa2 x A2 PRan x An PR(B) = Σ ------------ + ------------- + …+ ------------ NL A1 NL A2 NL An A1, A2, …, An étant toutes les pages pointant vers B (A1,…; An : tous les backlinks de B) PrA : Page Rank de A NL A : nombre de liens sortants de A Page Rank = somme des backlinks pondérée par les page rank respectifs des pages Cet algorithme démontre l’importance du maillage interne et externe pour le positionnement d’un site web. En effet, une popularité forte permet de se positionner sur des expressions concurrentielles, mais aussi d’augmenter le volume de crawl du site 3
  • 4.
    SEO : BlackHat vs White Hat Deux types de référenceurs sont souvent opposés : « Black Hat SEO » et « White Hat SEO ». La principale différence est le respect des T.O.S. (Terms of Services) de Google. Les référenceurs "White hat" contribuent à la Les techniques « Black Hat SEO » sont considérées création d'un contenu de qualité ou de sites plus comme des techniques de SPAM. Elles sont souvent performants. Les top positions sur les expressions plus efficaces à court terme sur les expressions très les plus concurrentielles sont parfois difficiles à concurrentielles (crédit, forex, ….), mais aussi très atteindre avec ces techniques. risquées. Google communique auprès des référenceurs sur les techniques White Hat et combat les techniques de Spam, en luttant et communiquant contre le Black Hat. Etre un référenceur White Hat permet d’éviter les risques de pénalité et de désindexation par Google. Les techniques Black Hat, qui semblent attrayantes en termes de résultats immédiats, peuvent avoir des conséquences désastreuses en termes d’image pour les marques et de trafic vers leurs sites, raison pour laquelle Performics préconise depuis toujours les techniques White Hat pour ses clients. 4
  • 5.
  • 6.
    Après Google Pandaen 2011…Penguin en 2012 ? L’année 2011 en SEO a été très fortement marquée L’année 2012 sera certainement marquée par un nouvel par les mises à jour Panda de Google, visant les algorithme que Google appelle le “webspam algorithm fermes de contenu. update.” Il a pour objectif d’éradiquer les sites de Spam, Les versions des mises à jour Panda continuent notamment à travers les techniques de netlinking . avec une nouvelle version lancée le 20 avril Les premiers effets de cette mise à jour ont été (Panda 3.5). constatées en France le 25 avril 2012. D’autres algorithmes ont eu de forts impacts, mais Danny Sullivan (Search Engine Land) a baptisé cet avec une portée médiatique moindre ("page layout algorithme Penguin, terme déjà repris par la algorithm" en Janvier 2012, par exemple). communauté SEO (Penguin ou Pinguin selon les sources) 6
  • 7.
    La communication Google « Dans les prochains jours, nous lançons un changement important de l'algorithme destiné aux webspam. Le changement va diminuer le classement pour les sites que nous jugeons violer les directives de Google en matière de qualité. Nous avons toujours ciblé les sites spammant notre classement, et cet algorithme constitue une amélioration majeure dans nos efforts visant à réduire le spam et promouvoir le contenu de haute qualité. » *…+ « La modification sera appliquée simultanément à l'ensemble des langues. Pour information, la première modification de notre algorithme, appelée "Panda", a eu une incidence significative sur environ 12 % des requêtes. Cet algorithme concerne environ 3,1 % des requêtes en anglais *…+ La modification va affecter environ 3 % des requêtes en allemand, en arabe ou en chinois, mais l'impact sera plus prononcé pour les langues plus largement concernées par le spam. Par exemple, 5 % des requêtes en polonais seront affectées. » *…+ Matt Cutts Head of Search Quality group in Google Nous voulons que les personnes réalisant une optimisation du référencement "White Hat", voire celles qui ne procèdent à aucune forme d'optimisation, soient libres de se concentrer sur la création de sites uniques et attrayants… 7
  • 8.
    Les premiers constats L’update de Google est très récent, les premiers tests sont partiels et les premières conclusions sont susceptibles d'être complétées.  L’impact de cet algorithme semble faible avec 3% des requêtes. Mais en le ramenant au nombre de requêtes quotidiennes sur Google (environ 4 milliards par jour), la mise à jour impacte environ 120 millions de requêtes par jour dans le monde !  Beaucoup de variations de positions, peu de suppressions de pages dans l’index, mais de grosses pertes de visibilité, à travers une chute de 3, 10, 20, 100 voire 200 positions...  Le marché français, connu par Google pour son réseau de référenceurs Black Hat, semble très affecté par cette nouvelle mise à jour. 8
  • 9.
    Les critères probablesde l’algorithme Google annonce deux principales types de techniques visées :  La sur-optimisation de contenu (« keyword stuffing » ). Google annonce que cette mise à jour concerne les textes optimisés à outrance dans le site (textes avec un contenu excessivement dense, uniquement créé pour les moteurs et devenant même illisible pour les internautes). Les premiers tests semblent montrer que les critères sont pour le moment mineurs ou pas encore pris en compte.  Le Netlinking sur-optimisé : selon nos premières études, cet algorithme semble porter en premier lieu sur le spam de netlinking. Les techniques de link- building via communiqués de presse et annuaires ne semblent pas directement impactées. Au-delà de la technique de link-building, les critères semblent porter davantage sur le type d’ancres et sur le volume d’ancres. Le premier critère qui ressort des études est la sur-optimisation des ancres externes. La distribution normale des ancres de liens étant composée d’ancres optimisées (ancre avec l’expression objectif) mais aussi d’ancres variées (du nom du domaine, d’image ou de mots clés génériques du type « cliquez ici »). Quelques autres critères probables : – Un fort ratio liens vs nombre de pages du site – Evolution du nombre de liens dans le temps (trop de nouveaux liens d’un coup peut paraître suspect) – Ratio âge du site & nombre de liens 9
  • 10.
    Ce qu’il fautvérifier 10
  • 11.
    Les premiers pointsà vérifier  Mon trafic chute : suis-je vraiment victime d’une pénalité ? Une baisse du trafic ou de position ne signifie pas obligatoirement une pénalité. Les changements de positions peuvent avoir bien d’autres causes qu’un changement d’algorithme. Ces causes peuvent être internes au site, mais le changement de position peut également provenir d’une meilleure optimisation des concurrents  Faut-il continuer à faire du link building? Oui, plus que jamais. Le linking externe étant l’un des points fondateurs de l’architecture globale de Google, il sera toujours partie intégrante d’une stratégie SEO efficace. Mais toujours en maîtrisant la méthode de création des liens : avec une vitesse de production maîtrisée et un aspect naturel. 11
  • 12.
    Les premiers pointsà vérifier  Où puis-je récupérer les ancres des liens externes ? Plusieurs sources de données sont possibles : données fournies par Google (Google Webmaster Tools) ou sources externes. Quelles que soient les sources, l’important est de définir les bons indicateurs.  Est-ce que les ancres des liens sont trop ciblées ? Il est pertinent d’étudier le type de lien et surtout les ancres pointant vers mon site. L’étude des ancres doit prendre en compte des indicateurs de répartition (ratio entre le volume d’ancre ciblé et le volume d’ancre non pertinent - image, texte générique, domaine, etc..). 12
  • 13.
    Sources  COMMUNICATION GOOGLESUR LE SUJET : http://insidesearch.blogspot.fr/2012/04/another-step-to-reward-high-quality.html http://googlewebmastercentral.blogspot.fr/2012/04/another-step-to-reward-high-quality.html http://support.google.com/webmasters/bin/answer.py?hl=en&answer=35769#3*  ACTUALITE GOOGLE PENGUIN : http://searchengineland.com/the-penguin-update-googles-webspam-algorithm-gets-official-name-119623 http://searchengineland.com/penguin-update-recovery-tips-advice-119650  BREVET GOOGLE LIE A CETTE EVOLUTION : http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch- adv.htm&r=1&f=G&l=50&d=PALL&S1=07302645&OS=PN/07302645&RS=PN/07302645  CALCUL DU PAGE RANK : The Anatomy of a Large-Scale Hypertextual Web Search Engine (Sergey Brin and Lawrence Page) http://infolab.stanford.edu/~backrub/google.html  INFOGRAPHIES : www.elliance.com 13