Choisir une solution e commerce compatible seo : quelle plateforme vous perme...
IA DANS L'ALGORITHME DE GOOGLE.pptx
1. IA dans l’algorithme de Google
Qu’est-ce que cela change pour le SEO
?
Philippe YONNET
Ceo Groupe Neper
Where Digital Marketing meets Science
Conférence
23 mars 2022
3. Le groupe Neper
Agence conseil
en
Search Marketing
Solutions pour
le digital
marketing
Formations et
événements en
marketing
digital.
Search Y Paris
Search Y
Genève
Les rendez-vous
incontournables du
Search Marketing en
Solutions
4. Ex. de Méthodologies
nouvelles
A/B Testing SEO : une approche efficace
par construction pour identifier les
optimisations qui fonctionnent dans un
contexte donné. L’arme imparable face à
un algorithme de plus en plus opaque.
Les optimisations CLOUD : Exploiter les
technologies Cloud et/ou Serverless pour
contourner les blocages technologiques
de vos sites web (amélioration du SEO,
des performances)
5. Neper s’est dotée dès son lancement d’un
programme de recherche sur les
applications de l’IA et du NLP au digital
marketing piloté par le Dr Halaleh Kamari
Neper a le statut de Jeune
Entreprise Innovante
Les Neperian Labs
6. SEARCH Y PARIS et SEARCH Y GENEVA
L’événement majeur du search marketing
+600 visiteurs,
Créé en 2018
avec la participation des représentants des moteurs Google,
Bing, Baidu, Yandex
7. Neper
University
Créé en 2018,
Le centre de
formations
Know Y est
spécialisé
dans les
formations sur
le marketing
digital
Diffuseur de savoirs
Formations
Know Y dispense
des formations :
-Interentreprises
(catalogue :
https://www.know-
y.fr)
-Intra entreprises
(sur mesure)
En présentiel, en
e-learning ou
blended learning
Participants
Les modules
sont
personnalisés
en fonction du
profil des
participants
aux sessions,
en tenant
compte de leur
niveau actuel
Datadock
Les formations
sont
référencées
Datadock.
Elles sont
donc éligibles
à un
financement
par votre OPCO
10. Au programme :
• Nos brèves hebdomadaires
• Nos différents évènements
• Nos vidéos
• Nos actualités
Entrez votre email sur la page d’accueil du site Neper
Abonnez-vous à notre newsletter
12. L’algorithme de clasement est en fait une fonction
d’évaluation
Score de pertinence = k1S1+k2S2+k3S3+K4s4+….
12
Deux familles de scores
Signaux dépendants des requêtes : similarité Cosinus, ou ce dont on va parler
Signaux indépendants des requêtes : exemple Pagerank
Le réglage peut être manuel, où (évolution possible actuelle) défini grâce
au machine learning
13. Intelligence Artificielle ?
Une très mauvaise appellation
Ce sont des programmes dont le
fonctionnement s’inspire (de manière
lointaine) de l’intelligence humaine
Cela englobe
l’apprentissage automatique
Les réseaux de neurones
Et l’apprentissage profond
Deep learning
15. Depuis 2017, Google se présente comme une société AI
First
Sauf que côté Search, son algo n’est pas AI First
16. Néanmoins, l’intelligence artificielle envahit peu à peu son
algorithme de classement
2011 Panda SVM
2015 Rankbrain
2018 Neural Matching
2019 BERT
2021 MUM ?
2022 …. ??
17. A la base, Google utilise une technologie de TAL inventée
dans les années 70
Similarité Cosinus : Gerald Salton
S’appuie sur des statistiques d’occurrence
des mots clés
Une page est considérée comme une bonne
réponse à une requête si elle partage des
mots avec la requête
Cela marche plutôt bien tant que les
requêtes sont effectuées sous formes d’un
ou plusieurs mots clés
18. Par contre, dès que la question est posée en langage
naturel… ça coince
Quelle est la monnaie du burkina faso ?
L’algo considère comme pertinentes les pages
qui contiennent la question, pas la réponse
Première approche :
Fonctionnement en moteur de réponses
Knowledge Graph
Featured Snippets
Mais ne marche bien que si on comprend
bien le concept appelé par la question
20. Les ingénieurs de Google ont fait avancer le TALN
TALN : traitement automatisé du langage naturel
NLP : natural language processing
Le projet : mieux prendre en compte le contexte d’apparition du terme dans les textes
pour disposer de données révélatrice du sens du mot
Attention au terme sens : tous les algos dont nous parlons sont idiots, ne comprennent pas les phrases,
ils font juste « comme s’ils les comprenaient »
Premiers résultats fin90 début 2000 : LDA, LSI
Problème : pas très réutilisable, et les calculs sont trop longs et trop compliqués à faire
Pas d’applications « temps réel » envisageable
L’idée des ingénieurs de Google : utiliser les réseaux de neurone, voire l’apprentissage
profond pour « apprendre » comment les termes sont utilisés dans différents contextes
21. Une révolution en NLP / TAL
« Words embedding » : une
approche nouvelle
21
25. Deuxième Génération : BERT
Permet de mieux comprendre :
Si un texte est une bonne réponse à
une question
Si des termes homographes ont des
sens différents en fonction du
contexte
26. L’apport des « transformers »
Les Transformers sont des composants utilisé dans de nombreuses conceptions
de réseaux neuronaux pour traiter des données séquentielles, telles que du texte
en langage naturel, des séquences génomiques, des signaux sonores ou des
données de séries chronologiques. Leur spécificité est d'exploiter un mécanisme
dit "d'attention" qui permet d'analyser les termes qui environnent un mot
particulier pour décider de la façon dont il va être encodé ou décodé.
27. BERT : fin 2019
Score de correspondance question <-> réponse
Améliore le moteur de réponses, mais pas la recherche à l’ancienne par mots clés
Même chose, mais en plus sophistiqué
27
28. Troisième génération : les modèles de langage préentrainés
GPT-3
Capacité à « reproduire » du langage de manière
synthétique
Course à la puissance
Google n’est pas dans cette course
30. Panda : filtre à base de machine learning semi supervisé
Comment identifier les pages de contenu à faible valeur ajoutée ?
Apprentissage automatique semi-supervisé
SVM : Support Vector Machine
31. / Rankbrain : depuis début 2015
Comment l’IA est implémentée dans l’algo
de Google ?
RankBrain nous aide à trouver des informations que nous ne pouvions
pas trouver auparavant en comprenant plus largement comment les
mots d’une recherche sont liés à des concepts du monde réel. […]
Meilleure gestion des requêtes en langage naturel
31
32. Neural matching : été 2018
Deep Learning
Si Rankbrain sert à mieux comprendre les concepts
appelés par les questions (donc à mieux comprendre les
requêtes), le Neural Matching permet à Google de mieux
comprendre les concepts contenus dans les pages webs
(donc dans les réponses).
Si Rankbrain donne des concepts précis, le Neural
Matching va chercher des notions plutôt larges,
identifiées par plusieurs mots, pour identifier des pages
pertinentes sur une requête.
Exemple : la réponse à la question « why does my tv look
strange » (=> the « soap opera effect »)
32
33. Neural matching : autre exemple
La recherche fait allusion à un livre de management
34. BERT : fin 2019
Score de correspondance question <-> réponse
Améliore le moteur de réponses, mais pas la recherche à l’ancienne par mots clés
Même chose, mais en plus sophistiqué
34
35. BERT
Il semble que Google, d’après les explications de Panda Nayak, embarque les
coordonnées sémantiques produites par le modèle BERT dans des vecteurs stockés
dans son index, ainsi que dans le processeur de requêtes. Ce qui permet de produire
des pages de résultats plus pertinentes. Le modèle n’est toutefois pas totalement
conçu pour cet usage, ce qui explique pourquoi l’impact de BERT sur les SERPs est
assez limité malgré tout.
De plus le modèle BERT a été entrainé surtout sur des textes en anglais, et est plus
employé sur les versions anglophones de Google que sur les autres. Mais sur la
version anglaise, il joue un rôle dans le classement produit sur la page de résultats
sur une proportion importante des requêtes.
36. Autre exemple
Dans cet exemple, il manque le mot « else ». BERT aide
néanmoins Google à comprendre le sens complet de la
requête « can you get medecine for someone else at a
pharmacy ».
37. Scoring des passages sur Google
https://www.blog.google/products/
search/search-on/
Impact : peut rendre certaines
recommandations SEO obsolètes
Pour en savoir plus :
https://www.neper.fr/2020/10/23/googl
gle-va-evaluer-la-pertinence-des-pages-
pages-sur-des-passages/
Impacte 7% des requêtes sur toutes les langues
38. DeepCT et DeepRank
Deeprank : documentaire
Trillions of Questions, No Easy Answers: A
(home) movie about how Google Search
works
https://www.youtube.com/watch?v=tFq6Q_muwG0
0&feature=emb_logo
43. Conclusion
Pour le moment, l’IA a surtout permis d’améliorer certains aspects du fonctionnement du
moteur de recherche Google, sans forcément que les utilisateurs voient de grands
bouleversements ou un saut quantique dans la qualité des résultats.
La recherche sur les applications de ces modèles ne fait que commencer. Et les modèles
spécialisés dans les tâches d' »ad hoc retrieval » (un terme de jargon scientifique pour
indiquer une recherche dans un moteur comme Google et Bing) sont encore dans les labos.
A la vitesse où vont les choses, il est possible que l’on voit apparaître un algo beaucoup,
beaucoup plus doué dans la découverte des pages pertinentes en quelques années
seulement.
Pas sûr que toutes les recettes de cuisine pour optimiser les sites pour le SEO marchent
encore avec ce type d’algos…
Déjà, elles ont pris du plomb dans l’aile ces dernières années.
Commencez déjà à travailler pour créer « les meilleures réponses possibles aux questions
des internautes »
Une disruption en cours, encore silencieuse