Ce diaporama a bien été signalé.
Nous utilisons votre profil LinkedIn et vos données d’activité pour vous proposer des publicités personnalisées et pertinentes. Vous pouvez changer vos préférences de publicités à tout moment.

Evolutions et nouveaux outils SEO

5 225 vues

Publié le

Vers un SEO plus scientifique !
SEOCamp'us 2016
8 avril 2016

Publié dans : Internet

Evolutions et nouveaux outils SEO

  1. 1. Nouveaux outils SEO - vers un seo plus scientifique - SEOCamp’us 2016 8 Avril 2016
  2. 2. Qui suis-je ? Dimitri Brunel 8 ans en Agence Chez l’annonceur à date Affinité Technique / outils startup Affinité R&D / outils internes Nouveau jouet SEO à date : Le langage R https://www.linkedin.com/in/seoconsultantdimitribrunel
  3. 3. Sommaire Web Performance Crawls / Logs / RegEx TextMining / Outils sémantiques Moteurs de Recherche internes API et KPI Dashboard Softwares Le langage R / Data Science La tendance ? Une compréhension plus scientifique des moteurs
  4. 4. Web Performance Un peu d’historique Les bons outils Ce qu’il faudra retenir TTFB 500ms FEO (HTTP/2)
  5. 5. Autrefois le focus était sur les “scorings” On s’est tous acharné sur les : - Scoring Yslow (Yahoo) - Scoring PageSpeed (Google) - Bonnes pratiques à la main - On parlait un peu de cache Varnish Mais pendant ce temps : - Les corrélations entre Vitesse et Positions ne sont pas très évidentes https://webmasters.googleblog.com/2010/04/using-site-speed-in-web-search-ranking.html Google commence à évangéliser (Avril 2010)
  6. 6. Puis Zoompf met le doigt sur ça (Août 2013)... “Using TTFB to determine the "performance" or "speed" could perhaps be explainable by the increased time and effort required to capture such data from the Google crawler. https://zoompf.com/search-ranking-factors ...puis nous SEO, qu’il existe AUSSI une vraie causalité entre crawl et “render” à =<500ms
  7. 7. Et qui dit plus de vitesse dit plus de ... - pages explorées - pages découvertes - pages indexées - pages actives - pages re re explorées - grappillage de ranks + meilleure expérience = plus de conversions “In 2006, Amazon presented a clear causation between page load time and online customer revenue. Every 100ms delay costs 1% of sales” ”Kyle Rush from the 2011 Obama campaign site showed through A/B testing that a 3-seconds page time reduction (5>2) improved onsite donations by 14%, (+ $34 million in election contributions.)” “Amazon's calculated that a page load slowdown of just one second could cost it $1.6 billion in sales each year” ”Google has calculated that by slowing its search results by just four tenths of a second (40ms!!!) they could lose 8 million searches per day—meaning they'd serve up many millions fewer online adverts” etc...
  8. 8. Enfin Google a redit “make the web faster” Avec : - PageSpeed Insight - PageSpeed Modules (Apache / Nginx) - Format WebP (image) - SPDY (pré-HTTP2 par google) - W3C Web Perf Working Group Les enjeux sont forts. Les objectifs sont ambitieux. Le mobile nous occupe en plus en plus. Objectifs : =<100ms TTFB 500ms StartRender Comment booster ? Comment monitorer ?
  9. 9. Petite parenthèse : Google met les moyens… Ce serait dommage de ne pas s’en servir ? Ferme de serveurs (au dessus / Iowa) Data Center à Hanima (à gauche / Finlande) https://www.google.com/about/datacenters/efficiency/internal/index.html#servers Sea Cooling Water
  10. 10. Petite parenthèse bis : Imaginons que … Vous êtes CEO d’un moteur de recherche Vous avez des crawlers, Des Data centers, etc. Vous garderiez dans votre index... Des sites très lent ? Avec des URLs qui tappent dans le vide ?
  11. 11. Pour adresser Web Performance et SEO 4 solutions SaaS
  12. 12. - Optimisation Front (proxy SaaS) - Optimisation Middle (CDN) - Règles web perf (à la demande) - Réductions Requêtes (HTTP/s) - Réduction Poids (Ko) - Ré-ordonnance (source HTML) - Pre-fetch HTML intelligent - Cache à trous - Monitoring / Dashboard pour SEO :) FASTERIZE (TTFB & front-end optimization) http://www.fasterize.com/fr/services/ métriques / solutions
  13. 13. - Analyses conseil (page / versus) - Rapport journalier - Rapports hebdomadaires - Alertes (qualité / lenteur / régression) - Dashboard (historique / kpis) - Waterfall (timings) - Simulation géo-loc / devices / débit 3G - Test transactionnels (beta) - Test staging / cookies / En-tête HTTP DAREBOOST (analyse / suivi / simulation) https://www.dareboost.com/fr/features
  14. 14. Mesure l’impact des perf : - l’acquisition (par medium) - les chemins de conversions - l’animation commercial (alertes) - par device (ex: mobile) - analyse les pages - propose des solutions A/B - etc WEBPERF.IO (web performance monitoring) http://webperf.io/
  15. 15. TAG PERFORMANCE (tags monitoring) http://fr.slideshare.net/TagCommander/tag-performance-slidesharefr Situation à date : - Le nombre de tags croit - Ils peuvent ralentir les chargements utilisateurs - GoogleBot peut crawler (abusivement) des ressources externes dont les JS donc aussi des tags... La vision de TagCommander : - Mesurer vos tags - Sur vos visiteurs / toutes pages - Sans échantillonage - Brique de “Tag Commander” Pour identifier les soucis : - par conteneur, page, ou device - sur le chargement du DOM - entre deux mise en production
  16. 16. http://chimera.labs.oreilly.com/books/1230000000545/ch12.html Le futur ? HTTP/2 Est déjà là (15 ans d’attente...) Web chiffré, Réduction des latences, et plus encore SPDY (dead) 2014
  17. 17. Analyseurs de Crawls et Logs Un peu d’historique Les bons outils Les RegEx Ce qu’il faudra retenir Taux de crawls Taux de pages actives Codes HTTP
  18. 18. Un peu d’historique La tendance actuelle ? - Quelques crawlers (XENU, Link Examiner) - Gros besoins en RAM - Peu de solutions SaaS - Des analyses incomplètes - Peu d’informations en sortie - Des graph à refaire - Les limites de Excel (sans power pivot + langage DAX) (je force un peu le trait mais à peine…) - Startups et levées de fonds - QUE des solutions SaaS - Critères en expansions - Dataset “XXL” / Délégation - Explorateurs d’URLs - Dashboards typé “Bootstrap” - Possibilités “custom” Et aussi : - Des APIs (= nouveaux usages) - Tests de papiers de recherche
  19. 19. Y a t’il encore de la place pour eux ? Peuvent-ils crawler de grosse structure ? (ex: 150K URLs) Oui et Oui ! et sont très bien pour des actions “one shot” Software à l’ancienne ?
  20. 20. - Gratuit ! (pour l’instant) - 150.000 URLs crawlables - 2GB de RAM suffisent - Analyse les basiques - Crawl l’AJAX - Crawls parallélisables - Intégration SearchConsole - Intégration BingWT - Intégration YandexWT (en cours) Sinon vous avez un MAC ? Dont’ panic ! (slide suivante) Visual Seo Studio (desktop - win) http://visual-seo.com/SEO-Software-Features/Development-Status
  21. 21. - Peu couteux ! - Crawl l’AJAX - Accept-Language Header - Extraction par patterns - Template d’exports - Simulation de snippets - Support Robots.txt - Intégration Google Analytics - Intégration Search Console - NoMatch GA et GSC - Amélioration en continue Screaming Frog (desktop - win/mac) https://www.screamingfrog.co.uk/seo-spider-5-0/
  22. 22. Vous avez 10 marques ? 15 boutiques ? Des gros catalogues ? Des milliers de produits ? Ou xxx langues / régions ? Quoi de plus “scalable” ?
  23. 23. Matures Robustes API REST “url centric” Améliorations en continue Solutions SaaS
  24. 24. BOTIFY ANALYTICS (crawls + Google Analytics) https://www.botify.com/support/videos/ https://developers.botify.com/api/ - Intégration GA - Main HTML Tags - Load Time Performance - Liens internes / sortant - Exploreur d’URLs (dataset) - Calcul du PageRank interne - Catégorisations et Filtres - Comparaison de crawls - Virtual Robots - Custom HTTP Headers - Planification, Plugin Chrome
  25. 25. BOTIFY LOG ANALYSER (crawls + logs) https://www.botify.com/log-analyzer/ - Les features des CRAWLS plus - Suivi bots moteurs majeurs - Catégorisation transversales - Codes HTTP, Pages orphelines - Lost / Recovered URLs - Taux de crawls (hits) - Taux de pages actives (visits) - Fenêtre de crawls - Rapports journaliers - et bien d’autre features encore
  26. 26. BOTIFY REST API Application Programming Interface REST (via HTTP / en client-serveur) OBJECTIFS : - créer de nouveaux usages - des usages “url centric” POSSIBILITÉS : - métriques crawl accessibles - métriques logs en cours - SDK JS (les autres arrivent) Exemple d’usages ? Dashboard URL centric Search Console - mot clé - URL active G-Analytics - URL active - sessions - transact° BOTIFY - URL crawlé - URL active Majestic SEO - URL linké - trust flow - citat° flow
  27. 27. DEEPCRAWL (crawls) https://www.deepcrawl.com/case-studies/ - Crawl types (5 types différents) - Crawl parrallélisables - API disponible à la demande - Custom extraction (regex) - DeepRank (≈PageRank) - Détection “Duplicate” Avancé - Intégration GA - Custom robots - Custom filters / limits - Deepcrawl V2 arrive bientôt
  28. 28. ONCRAWL (crawls) http://fr.oncrawl.com/knowledge-base/ - Editorial Insights => words count, schema => OG, twitter cards => extraction de n-grams - Duplicate content => par similarité (simhash) => par tags par clusters - Architecture (Inlinks, Outlinks, flux de page rank) - Performance (load, weight, etc)
  29. 29. ONCRAWL ADVANCED PLATFORM (crawls + logs) http://www.slideshare.net/Cogniteev/seo-breakfast-toulouse-analyse-de-logs - Open Source ! https://github.com/cogniteev/oncrawl-elk ou - Hosted Version : chez Cogniteev - Suivi des bots courants - Analyse croisé (crawls + logs) - Nb. et Taux de crawls / Pages actives - Nb. et Taux de pages orphelines - Catégorisations et Distribution - Graph historisés, Fenêtre de crawls
  30. 30. KELOGS (logs) http://kelo.gs/ - Une interface claire (highchart) - Vision KPI / crawl / hits / bots - Synthèse par métriques site - Des rapports par cat (regex) - Explorateur de logs puissant - Robuste (1 milliard de lignes) - Prix doux :)
  31. 31. REG EX (catégoriser vos URLs est obligatoire) http://regexr.com/ https://regex101.com/
  32. 32. TextMining et Outils Sémantiques Un peu d’historique La fouille de texte Situation à date ? Ce qu’il faudra retenir Quantification sémantique Score sémantique Affiné sémantique Cocon sémantique Word Embedding Mots en relations Fichier de vocabulaire
  33. 33. TextMining / DataMining Pouvait déjà servir en SEO ... Un peu d’historique SEO Quelques tentatives sur : - Analyse de texte ou URLs - Fréquence de mots - Densité selon tag, pertinence - Paires de mots, proximité Quelques outils : - Textalyser - Alyse - et Rapidminner (2006) !
  34. 34. « Extraction de connaissances » dans les textes Désigné sous l'anglicisme “text mining“ Les disciplines impliquées : linguistique informatique, l'ingénierie du langage (TAL), l'apprentissage artificiel et les statistiques Fouille de texte ?
  35. 35. Rapidminer : “Text Processing” Traitement de texte : - création de corpus (n doc => BDD) - tokenisation (découpe éléments) - stopwords (suppression) - stemming (racine des mots) - lemmatisation (mot simplifié) - n-grams (séquences contiguës) => table de fréquences des mots Via du TextMining, puis applications d’ algo, on peut simuler les documents
  36. 36. Rapidminer : “Association Rules with text” Apprentissage Règles Associations (=trouver relations ayant un intérêt) - en explorant un corpus - en traitant les textes - en créant des “vecteurs” - en trouvant les items fréquents (algo FP-Growth. Il en existe des tas => APriori, Eclat, GUHA…) - trouver ces règles d’association - et visualiser ces règles {onion, potatoes} => burger {data, mining} => rapidminer https://en.wikipedia.org/wiki/Association_rule_learning#Definition
  37. 37. Rapidminer : “Similar documents and Clustering” Calcul de Similarité et Partitionnement - Calculer la similarité entre une requête et documents (= vecteur mot / score TF-IDF) - Calculer la similarité entre doc (=similarité cosinus) - Partionnement de documents (=K-means clustering)
  38. 38. RapidMiner a évolué et en parallèle Des outils de “quantification sémantique” pour nous SEO ! Situation à date ? (2016)
  39. 39. Rapidminer 2016 ? (version 5.3 full - gratuite) Open Source Predictive Analytics Platform - Web Scrapping et tjs du TextMining - Corrélation (facteurs / forces) - Régles d’association (système de reco) - Partitionnement (k-means) - Cat auto docs (avis / spam / arbo ! :) - Régression linéaire (formule prédictive) - Arbre de décision (gagnant / perdant) Open (csv, excel, mysql, postgre ...) Interface R et Python
  40. 40. 1.FR (score sémantique) L’idée ? Trouver des relations entre termes, et regrouper (=créer champs sémantiques) Comment ? Un corpus (millier de pages), un apprentissage (créer la BDD des champs) L’app ? Audit les textes, donne des scorings (vs concurrents), trouve des mots proches Pour action ? Sculpter les champs lexicaux => affiner / ajouter (termes absents) => suppression (hors sujet, diluants) => contrôler avec le scoring (0 à 100%)
  41. 41. VISIBLIS V2 (affinité sémantique et cocon) L’idée initiale ? Un corpus de 17 millions de doc. Des algo de traitement du langage. Pourquoi Visiblis V2 est très très fort ? - analyse (TAL) de structure en silo - n-grams (avec synapsie par ex) - visualisation des liens internes - visualisation des clusters sémantiques - corpus visiblis / corpus perso - API V2 en dev / à venir - Analyse sémantique TOP10 à venir https://fr.wikipedia.org/wiki/Synapsie https://en.wikipedia.org/wiki/N-gram n-gram = séquence contiguë n-items {paire = AGC, GCT, CTT} {lettre = to_, o_b, _be,} {mot = to be, be or, or not} synapsie = liaison par joncteurs (ex: de, à) {pomme de terre}
  42. 42. Autres modèles vectoriels : TF-IDF, BM25, BOW VISIBLIS V2 (Outils > Affinité Sémantique) C’est quoi ? La similarité entre une requête => et un document (vecteur G.Salton) => et une cooccurrence (n-gram) du corpus TitrAlyser : mesure l’affinité requête > titre, suggère des opti, simule l’affichage TextAlyser : mesure l’affinité requête > phrases, suggère des opti d’affinité WebAlyser : fait la synthèse (requête > url), par affinité titre et contenus, diagnostique et re suggère des coocurrences https://fr.wikipedia.org/wiki/Synapsie https://fr.wikipedia.org/wiki/Formation_des_mots
  43. 43. VISIBLIS V2 (Outils > Cocon sémantique) C’est quoi ? Des pages hiérarchisés en un silo étanche remontant vers un mot clé. TreeAlyser : visualise le PR et Semantic Rank (titre / texte) dans un réseau de pages ClustAlyser : mesure l’affinité sémantique entre pages, “clusterize”, puis visualise SlideAlyser : affinité et complémentarité sémantique entre pages (diagramme venn) Proximité à 10% Proximité à 50% Proximité à 80% Rien en commun Glissement possible Duplication possible
  44. 44. COCON.SE (des cocons moins con) Des outils pour visualiser des pages bien organisés en silo (cocon, wordpress, etc.) - Maillages sous une forme lisible - Vision crawler (1er lien suivi) - Vision hiérarchisé (selon arborescence) - Colorisation topologique (pages / liens) - Diamètres apparenté au PageRank - Éventails (liens intra-silo / fuites) Simuler la structure permet de pousser les pages utiles, et supprimer les liens inutiles http://cocon.se/visualisation/visu-cmap
  45. 45. Si l’on avait eu plus de temps pour discuter : Alternative en Text Mining / Data Mining : - KNIME https://en.wikipedia.org/wiki/KNIME (merci à Aurélien Berrut http://www.htitipi.com/ ) Traitement du langage et Analyse du sentiment : - INBENDA https://www.inbenta.com/fr/solutions (merci à la personne qui m’en a parlé après la conf)
  46. 46. Natural Langage Processing et Learning Machine Aller encore plus loin ?
  47. 47. Faisons quelques recherches sur...
  48. 48. WORD2VEC ? D’abord un papier de recherche en 2013 : - Efficient Estimation of Word Representations in Vector Space, by Tomas Mikolov, Kai Chen, Greg S. Corrado, Jeffrey Dean [ICLR Workshop 2013] Puis une version (pas la vraie en fait) open-source : - https://code.google.com/archive/p/word2vec/ Enfin de gros Dataset rendus accessibles : - FREEBASE a pré-entraîné WORD2VEC - GoogleNews a été rendu public et a aussi pré-entraîné WORD2VEC
  49. 49. WORD2VEC, c’est quoi ? Nouvelle approche simple et rapide pour entraîner des “machine learning” à faire du “word embedding” = représentations vectorielles (nombre) des mots par rapport aux autres mots voisins un large corpus. Word2Vec s'entraîne à reconnaître : => d’un contexte des mots => Sac de mots => des mots un contexte => Skip-gram DeepLearning4J obtient des résultats plus précis sur de gros dataset via skip-gram
  50. 50. WORD2VEC, représentation de vecteurs Source : TensorFlow (Google Machine Learning 2nd Gen / DistBelief 1st Gen) https://www.tensorflow.org/versions/r0.7/tutorials/word2vec/index.html http://download.tensorflow.org/paper/whitepaper2015.pdf
  51. 51. WORD2VEC, concrètement ça fait quoi ? Les vecteurs capturent avec une forte régularité, la sémantique et la syntaxe des mots du corpus. Au final, Word2Vec renvoie des distances cosinus entre les mots en relation. Les vecteurs ont certaines propriétés comme la correspondance entre langues France Word Cosine distance spain 0.678515 belgium 0.665923 netherlands 0.652428 italy 0.633130 switzerland 0.622323 luxembourg 0.610033 portugal 0.577154 russia 0.571507 germany 0.563291 catalonia 0.534176
  52. 52. WORD2VEC, concrètement ça fait quoi ? Les vecteurs ont des propriétés linguistiques aussi ! Des calculs simples permettent de résoudre analogies, antinomies, etc : - vector('Paris') - vector('France') + vector('Italy') = vector('Rome') Les modèles peuvent être entraînés sur d’ énorme dataset (100 millards de mots) L’entrainement peut être pré-processé (mots vers phrases) et partitionnés sur les vecteurs hauts (=K-means => fichiers de vocabulaire). san_francisco Word Cosine distance los_angeles 0.666175 golden_gate 0.571522 oakland 0.557521 california 0.554623 san_diego 0.534939 pasadena 0.519115 seattle 0.512098 taiko 0.507570 Vocabulary file acceptance 412 argue 412 argues 412 arguing 412 argument 412 arguments 412 belief 412 believe 412 challenge 412 claim 412
  53. 53. WORD2VEC, librairies et applications ? Comment jouer avec ? - en Java => DeepLearning4JS - en Python => Gensim - en R => wordVectors Quatre applications connus avec Word2Vec? - Traduction de langues - Analyse du sentiment - Reconnaissance d’entités nommées - Semantic-role labeling Pourquoi donc ne pas essayer d’utiliser ceci en SEO !?
  54. 54. WORD2VEC, quelles utilisations pour nous SEO ? - Suggérer des mots clés, des analogies (vecteurs proches) - Sortir des fichiers de vocabulaire (vecteurs partitionnés) - Itérer par langue simplement (vecteurs très proches) - Interroger Word2Vec sur des entités nommées (entraînement freebase) - Dérouler un graph de connaissance ensuite - Calculer la similarité entre mot ⇔ documents (index inversé) - Calculer la similarité entre syntagmes, phrases, docs (doc2vec + gensim) http://stackoverflow.com/a/31417164 - Entraîner l’outil sur des DataSet perso => qualité du corpus indispensable
  55. 55. Moteurs de recherche interne Rapport avec le SEO ? Moteur indexé Moteur non indexé Ce qu’il faudra retenir Moteur non indexé Milliseconds matter Indexation SEO
  56. 56. Pourquoi vous s'intéresser à la recherche interne ? - Recherche Interne / SEO reposent sur de même briques du TAL (ex TF-IDF) - Vous captez de nouvelles recherches (mots clés) - Vous devriez mailler / indexer certaines de ces recherches - Vous voulez récupérer / garder vos visiteurs seo mobiles / desktop - Vous ne voulez pas qu’un collègue indexe 1M de page de recherche... - Votre moteur à facettes est fermé sur des requêtes marques / génériques => la recherche interne peut aider temporairement (mode pansement)
  57. 57. MOTEURS indexés et MOTEURS non indexés Moteur indexé (ex: elastic search) - basé sur du crawl de docs - basé sur des index (lucène) - scalable (architecture adaptable) - possède la recherche à facettes - quasi temps réel (latence faible) Moteur non indexé (ex: json et attributs) - zéro crawl = pas d’index de docs - seemless indexing Seemless Indexing ? - index JSON - on the fly (MAJ temps réèl) - attributs (détection auto) - reindexing (modif de conf)
  58. 58. Moteur Indexé (exemple)
  59. 59. SWIFTTYPE / moteur indexé - site search - mobile - real-time analytics - custom result ranking - autocomplete - facetted search - synonyms - spellcheck - weights - real-time indexing
  60. 60. Moteur non Indexé (exemple)
  61. 61. ALGOLIA (milliseconds matter) / non indexé Out of the box : Seamless indexing : vous poussez un JSON, c’est prêt ! Intuitive ranking : vous réglez VOTRE moteur de recherche (TAL / Business) API REST, 13 clients : Ruby, Rails, Python, PHP, JS, Java, Android, ... Lighting-fast back-end : répond entre 6ms et 9ms Distributed Search Network (DSN) : 30 data centers / 14 régions MAI 2015 : 18,3 M$ de levée de fonds chez Accel Partners !
  62. 62. ALGOLIA (milliseconds matters) / aspects saillants Instant Search : c’est un package UX “all-in-one” avec - widget slider (prix) - widger search (auto complete) - widget grid (tuiles de produits) - widget filter (facettes Au final c’est un moteur à facettes ultra complet, qui s'intègre en 2J, et que vous pouvez indexer (au choix) avec votre dev full-stack interne https://community.algolia.com/instantsearch.js/
  63. 63. ALGOLIA (milliseconds matters) / aspects saillants Intuitive Ranking : Agit sur la pertinence via des curseurs DISPLAY - attribut : catégories, rayons - attribut : facettes x y z RANKING - attribut : état du catalogue produits BUSINESS - attribut : prix, ventes, geoloc, etc
  64. 64. API & KPIs dashboard softwares La multiplication des API Les bon outils Ce qu’il faudra retenir API REST Prototype R Solutions SaaS
  65. 65. (Application Programming Interface) API
  66. 66. Situation à date et REST ? Google fait des API pour tout : - Search Console - Google Analytics - Google Trends - Google Chart - ... Chaque startup se doit de créer son API REST ! SEOtools pour Excel intègre les plus spécifiques au SEO API REST (representational state transfer). A la mode, car très pratique à utiliser : - via des URI - via HTTP - via des VERBES (get, …) - via des JETONS (token) - via des XML ou JSON
  67. 67. CATALISIO > API Google Search Console V3 Résout le “not provided” via : - données par PAGE - dimension par MOT CLÉS - dimension par DEVICES - dimension par X ou Y DATA - A haut volume (récolte tout) L’outil étant “URL centric” : - volume de recherche sont alignés - trafic et conversions sont alignés Connecteurs GA / eulerian / adwords Des “dashboard” clairs Des “score cards” par KPIs https://www.catalisio.com/fonctionnalites/
  68. 68. CATALISIO > API Google Search Console V3 Vision apporte une vision ROI-ste : - estimer l’acquisition Ranks / CTR - estimer l’acquisition Mots / €€ Mais aussi insciter des “pour actions” : - activer potentiels sous-exploités - activer potentiels à conquérir Catalisio connecte tout. Vous pouvez vous recentrer sur votre plan d’action. Vision par Mots Clés Suggestions d'Opportunités https://www.catalisio.com/fonctionnalites/
  69. 69. GA DASHBOARD (with R) > API Google Analytics Enhance Your GA Data with R Interactive trend graph Auto-update of GA data for last 3 years Zoomable heatmap for Day of week analysis. YoY, MoM, Last Month vs Last Year. MySQL persistant storage (blending your data with GA data) Upload option to update MySQL data stored. Analysis of impact of events via Google's CausalImpact Detection of unusual timepoints using Twitter's AnomalyDetection https://github.com/MarkEdmondson1234/ga-dashboard-demo
  70. 70. GA DASHBOARD (with R) > API Google Analytics http://markedmondson.me/enhance-your-google-analytics-data-with-r-and-shiny-free-online-dashboard-template Heatmaps (Twitter algo) AnomalityDetection
  71. 71. TextMining (for Google Sheets) > API dandelion Le plus utile pour nous SEO : - extraction d’entités nommées (nom, lieux, concept, etc) - analyse du sentiment (positif, négatif, neutre) Autred fonctionnalités via l’API : - similarité de texte (BOW, langues, etc) - classification de texte (modèle de taxons ou personnalisable) https://dandelion.eu/
  72. 72. Plugin et WebApp se multiplient à tour de bras Exemples API Search Gonsole : - searchConsoleR (R package) - SearchAnalytics (GoogleSheets) - SuperMetrics (GoogleSheets) - SEOtools (Excel) Exemples API Google Analytics : - googleAuthR (R package) - GA Dashboard (R Shiny App) - GA Effect (R Shiny App) - GA Rollup (R Shiny App) - GA Meta (R Shiny App) - Analytics Canvas (GoogleSheets) - SuperMetrics (GoogleSheets) - SEOtools (Excel)
  73. 73. (Software as a Service) DASHBOARD SaaS
  74. 74. KLIPFOLIO Create dashboards using data from 100s of services - alexa - adobe analytics - google analytics - google adwords - search console - MOZ - Searchmetrics - etc... https://www.klipfolio.com/integrations
  75. 75. CYFE Des connecteurs (=widgets) - adwords - googla analytics - moz - alexa - search console et des custom widgets - Push API - Donut, Funnel, etc http://www.cyfe.com/custom
  76. 76. PERISCOPE DATA(Type SQL, Get Charts) Imaginons vous stockiez en vrac (= data lake) des data issues de : - “google search console” - “google analytics” - “crawls” Application : 2-3 lignes de SQL et vous avez des graphs sur une jointure au choix https://www.geckoboard.com/integrations/
  77. 77. Le langage R Pourquoi c’est bien ? Après avoir parlé des API... ...que faire avec R en SEO ? Ce qu’il faudra retenir Rstudio R + Shiny + SEO ALGO
  78. 78. Introduction sur R Le langage d’analyse statistique - Utilisé par tous les chercheurs - +2 millions users et ça augmente - votre ami le Data Scientist l’utilise Open source, il y a des “packages” sur TOUT : - collecter / visualiser de la data (ggplot2) - interroger des “machine learning” (word2vec, glove) - lancer des “deep learning framework” (Tensorflow, MXNet) - appliquer des tas d’algo (BM25, Apriori, K-means, C4.5, CausualImpact) - déployer des web app sans aligner une ligne de CSS et de JS (seriously) 2015 2014
  79. 79. D’être un expert en math D’être un expert en algorithmes D’être un expert en programmation exemples ? Avec pas besoin...
  80. 80. Mark Edmondson (Data Insight Dev / IIH Nordic) A créé des interface R (API Google) et contribué à de nombres de packages : - googleAuthR (interface R pour OAuth 2) - googleAnalyticsR_public (interface R pour GA) - dygraphs : lib R pour diagramme avec tracé des zone de confiance - ggraph : add-on R pour le librairie de dataviz ggplot2 Puis des applications R avec Shiny Dashboard proche et utilisable en SEO : - searchConsoleR (APP search console) - GoogleTrendsDashboard (APP google trends) - GA Dashboard (APP google analytics console) - GA Effect (implémentation de CasualImpact (structures bayésiennes))
  81. 81. Mark Edmondson > POC searchConsoleR - WebApp en R - Connecteur Search Console - Fonction search_analytics() (celle qui nous intéresse le plus) - Croissement page ⇔ keyword Ne demande qu’à évoluer évoluer : - stockage en base - croisements avec GA - application d’algo en statistiques http://markedmondson.me/automating-google-search-analytics-data-downloads-with-r-and-searchconsoler
  82. 82. Mark Edmondson > POC GA Effect Implémentation Google CasualImpact (structures temporelles bayésiennes)) - WebApp en R - Connecteur Google Analytics - Charge tous types de Sources - Charge tous types de métriques Permet de prédire si un évènement passé à un impact sur le présent. ex : changement de balises <TITLE> http://online-behavior.com/analytics/statistical-significance http://markedmondson.me/finding-the-roi-of-title-tag-changes-using-googles-causalimpact-r-package
  83. 83. Mark Edmondson > POC GoogleTrendsDashboard - WebApp en R - Connecteur Google Trends - Basé sur la lib GTrendsR - Permet d’interroger - Permet d’extraire De là à en faire un outil SaaS pour vos collègues rédacteur web semble envisageable...
  84. 84. Débuter avec R 1/ Installer un IDE : Rstudio 2/ Installer les packages utiles - Shiny web app framework - Shiny Dashboard - htmlwidget - ggplot2 - readr 3/ Déployer votre Web App SEO : - Shiny App IO
  85. 85. R > d’autres “packages” à connaître gTrendR : interface R pour récupérer / afficher des informations GG Trends. googleVis : interface R pour utiliser Google Chart API DiagrammeR : lib R pour diagrammes sous Rstudio très simplement CasualImpact : prédire le présent avec les structures temporelles bayésiennes AnomalyDetection : trending topics / marronniers / points sous-jacents et les packages en fouille de textes comme Aylien
  86. 86. Pour chaque problème ... Le mot de la fin ?
  87. 87. Il existe un algo ! et ça peut servir aussi en SEO ! Et votre collègue data scientist en connaît des tas ... - TD-IDF, BM25 - BOW - n-grams - PageRank - C4.5 - APriori - K-means - Google CasualImpact - Twitter AnomalyDetection - Twitter BreackoutDetection http://scikit-learn.org/stable/tutorial/machine_learning_map/index.html http://rayli.net/blog/data/top-10-data-mining-algorithms-in-plain-english/
  88. 88. Questions ? MERCI

×