Référencement
     SEO
  CESI • 6 janvier 2011
SEO : Starter Guide
 Lexique                Améliorer son
                        positionnement
 Piqûre de rappel :
 le HTML                Spamming

 Fonctionnement des     Légendes du SEO
 moteurs de recherche
                        Mesurer son action
 Principes du SEO
                        Ressources
 Optimisation
Lexique
SEO : Search Engine Optimization

SERP : Search Engine Results Pages

Snippet : extrait de page visible dans les SERP

Mot-clé principal : mot-clé majeur de la page

Référencement naturel (ou organic) :
référencement effectué par l’action des robots

Crawlers ou Spiders : robots chargés de
parcourir le web et de collecter les
informations sur les pages
Rappel : le HTML
Déclarer un doctype
HTML 4.01
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN"
  "http://www.w3.org/TR/html4/strict.dtd">

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"
  "http://www.w3.org/TR/html4/loose.dtd">

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Frameset//EN"
  "http://www.w3.org/TR/html4/frameset.dtd">



HTML 5
<!DOCTYPE HTML>
<head>...</head>

<TITLE> ... </TITLE>

<META NAME=’‘DESCRIPTION’’> ... </
META>

CHARSET
<body>...</body>
<h1> ... </h1>

<p>

<ul> / <ol> / <dl>

<img>

<a>

<strong> / <em>

<blockquote> / <cite>
HTML5
    les nouveautés
<aside>

<hgroup>

<header> / <footer>

<article>

<section>
Fonctionnement
  des moteurs
Objectifs

Parcourir

Analyser et Indexer

Calculer et attribuer des PageRank

Répondre aux recherches
Process de requête (1)
               Nécessité de répondre à un besoin
                  (question, information, etc)



                  Formulation de la demande
                 en terme intelligibles : requête



                  Exécution de la requête dans
                    un moteur de recherche



                      Analyse des résultats




    Choix d’une réponse               Reformulation de la requête




    Analyse de la réponse
Process de requête (2)
       Réception de la requête client



        Analyse des mots-clés de la
                 requête



        Extraction des données des
                  indexes



        Classement des résultats par
                pertinence
« Tree falls in a forest »
Les principaux
   moteurs
Statistiques (2005)

90% des hommes et 91% des femmes utilisent
un moteur de recherche

42% des hommes et 39% des femmes s’en
servent tous les jours

+85% déclarent y trouver la réponse à leurs
questions
Statistiques (04.10)
Parts de marché US

  Google : 64,4%

  Yahoo! : 17,7%

  Bing : 11,8%

Google : 14 Milliards de requêtes

Yahoo! : 2,8 Miliards

Bing : 1,9 Milliards
Pourcentage de clicks
 1er résultat : 42,25%   3ème page : 2,42%

 2nd  : 11,94%           5ème page : 1,07%

 3è : 8,47%

 4è : 6,05%



 1 - 10 : 89,71%

 11 - 20 : 4,37%
Recommandations
Google
Concevoir les pages     Rédiger des textes
pour les utilisateurs   fiables, clairs et précis

Hiérarchiser pages et   Utiliser correctement
contenus                les éléments TITLE et
                        ALT
Assurer au moins un
lien statique vers      Ne pas avoir trop de
chaque page             liens dans la même
                        page (<100)
Yahoo!
Nombre de site ayant des liens pointant vers le
site

Contenu des pages

Fréquence des mises à jour

Changement dans l'algorithme du moteur

Ajout de site dans l'index
Bing
Optimisation du texte de contenu pour y faire
figurer les mots-clés

Limiter le poids des pages : une page sans
image doit être inférieure à 150Ko

Assurer au moins un lien statique vers chaque
page

Pas de texte embarqué dans des images
Limites techniques
   des moteurs
Indexation

incapacité à indexer les formulaires

mauvaise hiérarchisation des contenus et des
liens provoquant une mauvaise circulation des
robots sur le site

pas d'accès aux plugins
Gestion des contenus

 pas de rapprochement de termes sémantiques

 pas de rapprochement entre des termes en
 fonction de la localisation

 pas d'adaptation à la langue : importance de la
 localisation géographique
Les crawlers sont
incapables d’indexer
 autre chose que du
        texte
Pages orphelines
liens dynamiques          pages accessibles
générés par des           uniquement en
formulaires               résultats de recherches

liens javascripts         liens embarqués dans
                          des plug-ins
liens vers des pages
bloquées par robots.txt   liens dans des pages
                          incluant +100 liens
liens embarquées dans
des frames ou iframes
Principes du SEO
Augmenter
sa popularité
Expérimentations
utiliser un nom de       diriger les liens vers
domaine dépourvu de      des pages d'un
sens                     domaine référencé

truffer les pages d'un   effectuer des
site d'un mot-clé        changements mineurs
dépourvu de sens
                         surveiller les SERP: en
tester différents        cas de modifications,
emplacements,            tester les changements
balisages ... d'un       sur d'autres domaines
élément au sein d'une    avec d'autres termes
page
Optimisation
  du code
Règles de base


Seul le HTML est indexé

Conserver au moins 1 lien statique vers chaque
page du site
<TITLE>
utiliser des titres         intégrer le mots-clé
uniques sur l'ensemble      principal + si possible
du site                     une variation

titre en relation avec le   placer le mot-clé
contenu / descriptif        principal le plus près
                            possible du début de
longueur idéale :           la balise
moins de 70 caractères
                            placer les noms de
ne pas truffer de mots-     marque en début de
clés                        balise
Description
utilisée comme texte de          essayer d'attirer les visiteurs
présentation dans les SERP       grâce à ce texte dans les SERP

peut être surchargée par une     éviter les listes de mots-clés
portion de page plus en lien
avec la recherche de             pas de copier-coller
l'internaute
                                 utiliser des descriptions
peut être surchargé par une      uniques
description Open Directory
Project                          placer le mot-clé principal au
                                 moins 1x (si possible 2x) pour
résumer au maximum la page       attirer l'oeil dans les snippets
                                 des SERP
longueur idéale 160 caractères
<META>


KEYWORDS : inutile aujourd’hui

refresh / revisit-after / content-type
pas d'impact sur les SERP
Mots-clés
placer les termes             acheter des campagnes
importants dans les titres,   AD pour vérifier l'impact
les ancres, les meta data     du mot-clé

pas de forte densité des      utiliser les outils de
mots-clés                     génération automatique
                              de mots-clés
cohérents avec l'activité
du site                       ne pas ignorer "the long-
                              tail"
quels sont déjà les
résultats pour ces mots-
clés ?
Balises de titre
concevoir votre page   utiliser un balisage
en imaginant un        sémantiquement juste
sommaire               (ne pas tenir compte
                       de la forme)
utiliser un balisage
cohérent (pas de Hn    ne pas utiliser plus de
au lieu de EM ou       Hn que nécessaire
STRONG)
                       placer le mots-clé
                       principal dans le H1
<IMG>
utiliser des attributs alt pour   utiliser des types de fichiers
décrire les images                supportés (GIF/JPEG/
                                  PNG) et utiliser la bonne
utiliser des noms de fichiers      extension pour le bon
en rapport avec le thème de       mime-type
l'image
                                  placer au moins une fois le
regrouper les images dans         mot-clé principal dans un
un même sous-dossier ou           attribut ALT
sous-domaine

éviter d'utiliser des images
pour embarquer du texte
<a>
utiliser des termes         utiliser des liens
pertinents dans les         internes et référents
ancres
                            pas de mot-clé
utiliser des termes         principal en ancre
courts et précis
                            le link bombing
rendre les liens faciles
à voir et à utiliser
Robots.txt
utiliser robots.txt pour    l'attribut rel="nofollow"
filtrer les accès des
crawlers                    ne pas utiliser pour
                            protéger des contenus
URLs visibles dans les
SERP malgré NOINDEX         indique l’URL de certains
                            contenus
bloquer l'accès aux pages
auto-générées

bloquer l'accès aux pages
de résultats de recherche
<META
NAME= ‘ ‘ROBOTS’’>
index/noindex

follow/nofollow

noarchive

nosnippet

noODP / noYDir
URL
URL : Unique Ressource        intégrer le mot-clé dans
Locator                       l’URL

redirection 301 en cas        utilisez la ponctuation, en
d'URL multiples               favorisant "-" plutôt que "_"

choisir entre www ou non-     ne pas utiliser de variables
www                           dans les URL (intervals, etc)

utiliser des URL courtes et   ne pas utiliser de capitales
compréhensibles
                              attention aux liens relatifs
utiliser MOD_REWRITE          erronés
URL : effets
         collatéraux

facilite l'organisation du site

permet un développement durable

rend la navigation plus intuitive
Optimisation
 du contenu
Arborescence
créer des catégories / sous-   attention aux menus de
catégories logiques            navigations

ne pas créer plus de           utiliser un fil d'ariane
catégories que nécessaire
                               envisager les URL tronquées
page profonde moins bien
notée                          utiliser des pages 404 utiles
                               (et jolies !) avec des
utiliser un fichier Sitemap     suggestions de liens
XML, éventuellement un
sitemap HTML sur le site
toujours à jour
Rédiger pour le web
rédiger du texte propre,      spécifier la langue dans
clair, correct, sans fautes   les contenus (attribut «
                              lang »)
ne pas utiliser de texte
embarqué dans des             créer du contenu exclusif
images et prévoir des
alternatives (alt)            concevoir le contenu pour
                              l'utilisateur en priorité
utiliser un code
sémantiquement juste          rédiger du contenu frais
(niveaux de titre,            unique (pas de copier-
paragraphes, listes etc)      coller de site à site, ou au
                              travers des pages)
utiliser des formes variées
de textes (acronymes, etc)
Bonnes pratiques
pas de mots-clés sans     Utiliser les outils de
rapport                   webmaster pour cibler
                          les mots-clés et
pas de contenu caché      variations utilisées

Placer le mot-clé
principal au moins 3x
dans le corps du texte,
et au moins 1x en gras
Contenus dupliqués

utiliser le meta tag    utiliser une lien absolu
"canonical" pour        HOME
désigner la page
originale               réaliser un ping
                        automatique
renvoyer les contenus
dupliqués par un code
HTTP 301
Promouvoir son
      contenu
Publier des billets sur   Construire des
les blogs pour attirer    communautés de sites
l'attention               partageant des
                          objectifs / contenus
Utiliser les              similaires (lien
mécanismes des            fallback, etc)
réseaux sociaux pour
partager les infos
Améliorer son
positionnement
Le succès concurrent
Top 10
de qualité

faciles à naviguer et à utiliser

au design et à l'ergonomie moderne

fournissant du contenu frais, précis, et fiable

accessible à l'ensemble des navigateurs
modernes
Utilisez un design
     tendance
  ergonomique
     agréable
Répondre à un besoin

 accéder à un site précis (pages blanches)

 recherche informative

 recherche commerciale (business, partenaires)

 recherches transactionnelles : génèrent une
 transformation monétaire
Les liens
Favoriser les échanges
 lien globaux : soyez      soyez vigilant aux
 liés sur d'autres sites   liens spammés

 les liens provenant de    ne liez pas vers des
 sites au contenu          sites à la réputation
 similaires ont plus       douteuse (utilisez
 d'importance              "nofollow")

 soignez les ancres et
 utilisez les mots-clés
3 types de liens

liens naturels : liens par des blogs / réseaux
sociaux / partenaires. Favoriser l'investissements
dans des communautés.

liens éditoriaux : rendre contact avec des journalistes,
partenaires, blogueurs susceptibles d'améliorer la
visibilité du site

utiliser les méthodes de génération automatiques
Stratégies
Estimer les liens des       Surveiller Google
pages en tête de            BlogSearch pour identifier
classement pour les         les modifications à venir
termes de recherche         des algorithmes Google
donnés
                            Utiliser les outils
Surveiller le PageRank      d'analyse et de rapport
des sites partenaires       (Yahoo! Site Explorer /
                            WooRank)
Surveiller le mozRank des
pages                       Eviter de diluer la
                            présence de son lien
Conseils
Participer à des annuaires   Créer des contenus viraux
de liens générant un trafic   pour envahir les réseaux
direct                       sociaux

Utiliser les pages des       Utiliser des licences de
clients pour générer des     partage sur les contenus
liens                        (CC) pour faciliter les
                             citations et les backlinks
Monter un blog corporate
pour favoriser les           Evitez les liens payants
échanges
Utiliser les outils
Outils communs
Sitemap.xml

Robots.txt

  Disallow

  Sitemap

  Crawl delay

Balise Meta ROBOTS

Attribut REL=NOFOLLOW
Outils des moteurs

Google Webmaster tools

Yahoo! Site Explorer

Bing Webmaster Center

SEOMOZ Open Site Explorer
Spamming
Spam Engines


Suivez les bonnes pratiques

Surveillez les PageRank
Les Grandes
Techniques
Keyword Stuffing
Manipulation de liens

 échanges réciproques de liens : facilement
 reconnu par les moteurs

 auto-linking : utilisation de fermes de liens ou
 de réseaux de liens

 liens payants : difficilement décelables

 annuaires de liens peu fiables
Cloaking

Couleurs et fond identiques

Display : none

Masquage JS

Identification du crawler

White Hat Cloaking
Pages à faible valeur


agrégateurs automatiques

duplicateurs de contenus

publicité
Le Blacklistage

fermes de liens

les duplicateurs de contenus sur de
nombreuses pages

jugement à deux vitesse
Si vous êtes
blacklistés ...
... GAME OVER
Légendes du SEO
Les Mythes
Formulaires de soumission

KEYWORDS Meta Tag

Densité des mots-clés

Booster SERP payants

Suivi des recherches par profil chez Google
(personnalisation)

Echanges de liens réciproques
Mesurer son
  impact
Techniques
Consulter le nombre      Mesurer le taux de
de visites en            conversion en fonction
provenance des           des mots-clés d'accès
moteurs
                         Vérifier les pages
Mesurer l'impact des     recevant au moins une
changements par          visite depuis un
moteur et par pays       moteur

Analyser les mots-clés
utilisés pour arriver
sur le site
Outils

Site Search

Google trends

Google trends for websites

Google insights search
Flameware *
Ressources
WebRankInfo

Google "SEO Starter Guide"

The Beginners Guide to SEO - SEOmoz

Advanced Google Analytics tips for SEO (I, II,
III)

SEO metrics that matter
A vous maintenant ...
slideshare.net/
madsgraphics/seo

Seo

  • 1.
    Référencement SEO CESI • 6 janvier 2011
  • 2.
    SEO : StarterGuide Lexique Améliorer son positionnement Piqûre de rappel : le HTML Spamming Fonctionnement des Légendes du SEO moteurs de recherche Mesurer son action Principes du SEO Ressources Optimisation
  • 3.
  • 4.
    SEO : SearchEngine Optimization SERP : Search Engine Results Pages Snippet : extrait de page visible dans les SERP Mot-clé principal : mot-clé majeur de la page Référencement naturel (ou organic) : référencement effectué par l’action des robots Crawlers ou Spiders : robots chargés de parcourir le web et de collecter les informations sur les pages
  • 5.
  • 6.
    Déclarer un doctype HTML4.01 <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd"> <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Frameset//EN" "http://www.w3.org/TR/html4/frameset.dtd"> HTML 5 <!DOCTYPE HTML>
  • 7.
    <head>...</head> <TITLE> ... </TITLE> <METANAME=’‘DESCRIPTION’’> ... </ META> CHARSET
  • 8.
    <body>...</body> <h1> ... </h1> <p> <ul>/ <ol> / <dl> <img> <a> <strong> / <em> <blockquote> / <cite>
  • 9.
    HTML5 les nouveautés <aside> <hgroup> <header> / <footer> <article> <section>
  • 10.
  • 11.
    Objectifs Parcourir Analyser et Indexer Calculeret attribuer des PageRank Répondre aux recherches
  • 12.
    Process de requête(1) Nécessité de répondre à un besoin (question, information, etc) Formulation de la demande en terme intelligibles : requête Exécution de la requête dans un moteur de recherche Analyse des résultats Choix d’une réponse Reformulation de la requête Analyse de la réponse
  • 13.
    Process de requête(2) Réception de la requête client Analyse des mots-clés de la requête Extraction des données des indexes Classement des résultats par pertinence
  • 14.
    « Tree fallsin a forest »
  • 15.
  • 16.
    Statistiques (2005) 90% deshommes et 91% des femmes utilisent un moteur de recherche 42% des hommes et 39% des femmes s’en servent tous les jours +85% déclarent y trouver la réponse à leurs questions
  • 17.
    Statistiques (04.10) Parts demarché US Google : 64,4% Yahoo! : 17,7% Bing : 11,8% Google : 14 Milliards de requêtes Yahoo! : 2,8 Miliards Bing : 1,9 Milliards
  • 18.
    Pourcentage de clicks 1er résultat : 42,25% 3ème page : 2,42% 2nd  : 11,94% 5ème page : 1,07% 3è : 8,47% 4è : 6,05% 1 - 10 : 89,71% 11 - 20 : 4,37%
  • 19.
  • 20.
    Google Concevoir les pages Rédiger des textes pour les utilisateurs fiables, clairs et précis Hiérarchiser pages et Utiliser correctement contenus les éléments TITLE et ALT Assurer au moins un lien statique vers Ne pas avoir trop de chaque page liens dans la même page (<100)
  • 21.
    Yahoo! Nombre de siteayant des liens pointant vers le site Contenu des pages Fréquence des mises à jour Changement dans l'algorithme du moteur Ajout de site dans l'index
  • 22.
    Bing Optimisation du textede contenu pour y faire figurer les mots-clés Limiter le poids des pages : une page sans image doit être inférieure à 150Ko Assurer au moins un lien statique vers chaque page Pas de texte embarqué dans des images
  • 23.
  • 24.
    Indexation incapacité à indexerles formulaires mauvaise hiérarchisation des contenus et des liens provoquant une mauvaise circulation des robots sur le site pas d'accès aux plugins
  • 25.
    Gestion des contenus pas de rapprochement de termes sémantiques pas de rapprochement entre des termes en fonction de la localisation pas d'adaptation à la langue : importance de la localisation géographique
  • 26.
    Les crawlers sont incapablesd’indexer autre chose que du texte
  • 27.
    Pages orphelines liens dynamiques pages accessibles générés par des uniquement en formulaires résultats de recherches liens javascripts liens embarqués dans des plug-ins liens vers des pages bloquées par robots.txt liens dans des pages incluant +100 liens liens embarquées dans des frames ou iframes
  • 28.
  • 29.
  • 30.
    Expérimentations utiliser un nomde diriger les liens vers domaine dépourvu de des pages d'un sens domaine référencé truffer les pages d'un effectuer des site d'un mot-clé changements mineurs dépourvu de sens surveiller les SERP: en tester différents cas de modifications, emplacements, tester les changements balisages ... d'un sur d'autres domaines élément au sein d'une avec d'autres termes page
  • 31.
  • 32.
    Règles de base Seulle HTML est indexé Conserver au moins 1 lien statique vers chaque page du site
  • 33.
    <TITLE> utiliser des titres intégrer le mots-clé uniques sur l'ensemble principal + si possible du site une variation titre en relation avec le placer le mot-clé contenu / descriptif principal le plus près possible du début de longueur idéale : la balise moins de 70 caractères placer les noms de ne pas truffer de mots- marque en début de clés balise
  • 34.
    Description utilisée comme textede essayer d'attirer les visiteurs présentation dans les SERP grâce à ce texte dans les SERP peut être surchargée par une éviter les listes de mots-clés portion de page plus en lien avec la recherche de pas de copier-coller l'internaute utiliser des descriptions peut être surchargé par une uniques description Open Directory Project placer le mot-clé principal au moins 1x (si possible 2x) pour résumer au maximum la page attirer l'oeil dans les snippets des SERP longueur idéale 160 caractères
  • 35.
    <META> KEYWORDS : inutileaujourd’hui refresh / revisit-after / content-type pas d'impact sur les SERP
  • 36.
    Mots-clés placer les termes acheter des campagnes importants dans les titres, AD pour vérifier l'impact les ancres, les meta data du mot-clé pas de forte densité des utiliser les outils de mots-clés génération automatique de mots-clés cohérents avec l'activité du site ne pas ignorer "the long- tail" quels sont déjà les résultats pour ces mots- clés ?
  • 37.
    Balises de titre concevoirvotre page utiliser un balisage en imaginant un sémantiquement juste sommaire (ne pas tenir compte de la forme) utiliser un balisage cohérent (pas de Hn ne pas utiliser plus de au lieu de EM ou Hn que nécessaire STRONG) placer le mots-clé principal dans le H1
  • 38.
    <IMG> utiliser des attributsalt pour utiliser des types de fichiers décrire les images supportés (GIF/JPEG/ PNG) et utiliser la bonne utiliser des noms de fichiers extension pour le bon en rapport avec le thème de mime-type l'image placer au moins une fois le regrouper les images dans mot-clé principal dans un un même sous-dossier ou attribut ALT sous-domaine éviter d'utiliser des images pour embarquer du texte
  • 39.
    <a> utiliser des termes utiliser des liens pertinents dans les internes et référents ancres pas de mot-clé utiliser des termes principal en ancre courts et précis le link bombing rendre les liens faciles à voir et à utiliser
  • 40.
    Robots.txt utiliser robots.txt pour l'attribut rel="nofollow" filtrer les accès des crawlers ne pas utiliser pour protéger des contenus URLs visibles dans les SERP malgré NOINDEX indique l’URL de certains contenus bloquer l'accès aux pages auto-générées bloquer l'accès aux pages de résultats de recherche
  • 41.
  • 42.
    URL URL : UniqueRessource intégrer le mot-clé dans Locator l’URL redirection 301 en cas utilisez la ponctuation, en d'URL multiples favorisant "-" plutôt que "_" choisir entre www ou non- ne pas utiliser de variables www dans les URL (intervals, etc) utiliser des URL courtes et ne pas utiliser de capitales compréhensibles attention aux liens relatifs utiliser MOD_REWRITE erronés
  • 43.
    URL : effets collatéraux facilite l'organisation du site permet un développement durable rend la navigation plus intuitive
  • 44.
  • 45.
    Arborescence créer des catégories/ sous- attention aux menus de catégories logiques navigations ne pas créer plus de utiliser un fil d'ariane catégories que nécessaire envisager les URL tronquées page profonde moins bien notée utiliser des pages 404 utiles (et jolies !) avec des utiliser un fichier Sitemap suggestions de liens XML, éventuellement un sitemap HTML sur le site toujours à jour
  • 46.
    Rédiger pour leweb rédiger du texte propre, spécifier la langue dans clair, correct, sans fautes les contenus (attribut « lang ») ne pas utiliser de texte embarqué dans des créer du contenu exclusif images et prévoir des alternatives (alt) concevoir le contenu pour l'utilisateur en priorité utiliser un code sémantiquement juste rédiger du contenu frais (niveaux de titre, unique (pas de copier- paragraphes, listes etc) coller de site à site, ou au travers des pages) utiliser des formes variées de textes (acronymes, etc)
  • 47.
    Bonnes pratiques pas demots-clés sans Utiliser les outils de rapport webmaster pour cibler les mots-clés et pas de contenu caché variations utilisées Placer le mot-clé principal au moins 3x dans le corps du texte, et au moins 1x en gras
  • 48.
    Contenus dupliqués utiliser lemeta tag utiliser une lien absolu "canonical" pour HOME désigner la page originale réaliser un ping automatique renvoyer les contenus dupliqués par un code HTTP 301
  • 49.
    Promouvoir son contenu Publier des billets sur Construire des les blogs pour attirer communautés de sites l'attention partageant des objectifs / contenus Utiliser les similaires (lien mécanismes des fallback, etc) réseaux sociaux pour partager les infos
  • 50.
  • 51.
  • 52.
    Top 10 de qualité facilesà naviguer et à utiliser au design et à l'ergonomie moderne fournissant du contenu frais, précis, et fiable accessible à l'ensemble des navigateurs modernes
  • 53.
    Utilisez un design tendance ergonomique agréable
  • 54.
    Répondre à unbesoin accéder à un site précis (pages blanches) recherche informative recherche commerciale (business, partenaires) recherches transactionnelles : génèrent une transformation monétaire
  • 55.
  • 56.
    Favoriser les échanges lien globaux : soyez soyez vigilant aux liés sur d'autres sites liens spammés les liens provenant de ne liez pas vers des sites au contenu sites à la réputation similaires ont plus douteuse (utilisez d'importance "nofollow") soignez les ancres et utilisez les mots-clés
  • 57.
    3 types deliens liens naturels : liens par des blogs / réseaux sociaux / partenaires. Favoriser l'investissements dans des communautés. liens éditoriaux : rendre contact avec des journalistes, partenaires, blogueurs susceptibles d'améliorer la visibilité du site utiliser les méthodes de génération automatiques
  • 58.
    Stratégies Estimer les liensdes Surveiller Google pages en tête de BlogSearch pour identifier classement pour les les modifications à venir termes de recherche des algorithmes Google donnés Utiliser les outils Surveiller le PageRank d'analyse et de rapport des sites partenaires (Yahoo! Site Explorer / WooRank) Surveiller le mozRank des pages Eviter de diluer la présence de son lien
  • 59.
    Conseils Participer à desannuaires Créer des contenus viraux de liens générant un trafic pour envahir les réseaux direct sociaux Utiliser les pages des Utiliser des licences de clients pour générer des partage sur les contenus liens (CC) pour faciliter les citations et les backlinks Monter un blog corporate pour favoriser les Evitez les liens payants échanges
  • 60.
  • 61.
    Outils communs Sitemap.xml Robots.txt Disallow Sitemap Crawl delay Balise Meta ROBOTS Attribut REL=NOFOLLOW
  • 62.
    Outils des moteurs GoogleWebmaster tools Yahoo! Site Explorer Bing Webmaster Center SEOMOZ Open Site Explorer
  • 63.
  • 64.
    Spam Engines Suivez lesbonnes pratiques Surveillez les PageRank
  • 65.
  • 66.
  • 67.
    Manipulation de liens échanges réciproques de liens : facilement reconnu par les moteurs auto-linking : utilisation de fermes de liens ou de réseaux de liens liens payants : difficilement décelables annuaires de liens peu fiables
  • 68.
    Cloaking Couleurs et fondidentiques Display : none Masquage JS Identification du crawler White Hat Cloaking
  • 69.
    Pages à faiblevaleur agrégateurs automatiques duplicateurs de contenus publicité
  • 70.
    Le Blacklistage fermes deliens les duplicateurs de contenus sur de nombreuses pages jugement à deux vitesse
  • 71.
  • 72.
  • 73.
  • 74.
    Les Mythes Formulaires desoumission KEYWORDS Meta Tag Densité des mots-clés Booster SERP payants Suivi des recherches par profil chez Google (personnalisation) Echanges de liens réciproques
  • 75.
  • 76.
    Techniques Consulter le nombre Mesurer le taux de de visites en conversion en fonction provenance des des mots-clés d'accès moteurs Vérifier les pages Mesurer l'impact des recevant au moins une changements par visite depuis un moteur et par pays moteur Analyser les mots-clés utilisés pour arriver sur le site
  • 77.
    Outils Site Search Google trends Googletrends for websites Google insights search
  • 78.
  • 79.
    Ressources WebRankInfo Google "SEO StarterGuide" The Beginners Guide to SEO - SEOmoz Advanced Google Analytics tips for SEO (I, II, III) SEO metrics that matter
  • 80.
  • 81.