1. LIVRE BLANC 2023 - NETINO BY WEBHELP
MODÉRATION
HUMAINS & INTELLIGENCE ARTIFICIELLE
LES VRAIES
QUESTIONS
À SE POSER
2. SOMMAIRE
I N T R O D U C T I O N
0 4
D A N S Q U E L L E S C I R C O N S T A N C E S P E U T - O N
C O N S I D É R E R Q U ' U N C O M M E N T A I R E
D O I T Ê T R E R E J E T É ?
0 7
Ê T R E ( T R È S ) R É A C T I F E S T - C E
I M P O R T A N T P O U R L A M O D É R A T I O N ?
1 2
F A U T - I L E X T E R N A L I S E R L A
M O D É R A T I O N D E S E S C O N T E N U S ?
1 5
1 9
2 1
0 3
Q U ' E S T C E Q U ' U N D I S P O S I T I F D E
M O D E R A T I O N R O B U S T E E N 2 0 2 3 ?
W E L L - B E I N G D E S M O D E R A T E U R S P L U S
Q U ' U N " G O O D T O H A V E " [ I N T E R V I E W ]
2 5
C O N C L U S I O N
E T U D E N E T I N O B Y W E B H E L P
0 5
Q U E D I T L A L O I ?
0 9
N O T R E M O D É R A T I O N C H E Z W I Z Z
1 6
3. Un robot n'est pas tout à fait
une machine. Un robot est une
machine fabriquée pour imiter
de son mieux l'être humain
Isaac Asimov,
Ecrivain et professeur
Dans la mesure
où elle a besoin d'humain,
l'IA n'est ni artificielle
ni intelligente"
Kate Crawford,
Microsoft Research
4. INTRODUCTION
Dans le secteur de la modération, un changement
de paradigme n'est pas à venir... il a déjà eu lieu !
La découverte par le grand public fin 2022 de
l'IA générative, de ChatGPT à Midjourney, a
fait ressurgir dans les esprits les
fantasmagories dystopiques jusque là
cantonnées aux oeuvres de Science-Fiction les
plus sombres.
Y sommes-nous finalement parvenus, à cet
humain surclassé, ringardisé et, en fin de
compte, bientôt remplacé ? La matière grise
a-t-elle été finalement détrônée par les
écrans noirs ?
Les observateurs plus tempérés prophétisent
plutôt une hybridation progressive des
professions du digital, dans une logique
d'humain augmenté où la machine se borne à
faciliter plutôt qu'à se substituer.
Ce qui aurait du sens, si l'on considère
l'exemple du secteur de la modération où le
modérateur de chair et d'os, bien que
désormais largement suppléé par les
algorithmes, n'a en rien perdu de sa valeur
ajoutée. Au contraire !
N'en reste pas moins que si la modération est
de plus en plus (légitimement) considérée par
les marques comme une brique essentielle de
tout projet communautaire, les modalités de
déploiement et les champs d'action d'un
dispositif hybride IA/humains demeurent
flous pour beaucoup. Nous espérons que le
présent livre blanc aidera à répondre aux
questions les plus récurrentes !
0 4
5. ACTUALITÉS DIVERTISSEMENTS SPORTS PETITES ANNONCES
GAMING RENCONTRES VOYAGES FINANCES
Dans le cadre de ce livre blanc, afin de pouvoir mettre en perspective certaines
réflexions, Netino by Webhelp a réalisé une étude sur un échantillon de contenus
postés entre avril 2022 et avril 2023, sur une sélection de secteurs représentatifs de
l'éco-système participatif du web 2.0 francophone.
0 5
Soit
188 566 955
contenus textes et iconographiques analysés
pour le besoin de cette étude
SECTEURS FAISANT PARTIE DE L'ECHANTILLON
6. 112 050 831 contenus
ont été traités automatiquement,
sans intervention humaine
dont
25 025 561
contenus rejetés
11 974 278
contributeurs ayant posté
au moins 1 contenu
13,3 %
Insultes et vulgarité excessive
Attaques personnelles entre
internautes
Spams et Scams
Discrimination
Diffamation
Apologie ou appel à la violence
QUELQUES MOTIFS
DE REJET
13 852 647
2 246 666
1 421 603
1 100 993
645 458
456 690
0 6
Chiffres-clés
DE CETTE ÉTUDE
Soit plus que la population
de toute la Belgique !
soit une moyenne de
15.7
contenus sur 1 an
des contenus rejetés présentaient
une toxicité très haute ou haute
61.5%
7. LA LÉGALITÉ
1.
2. LA TOXICITÉ
Dans le domaine de la modération, l’arbitraire se doit d’être proscrit.
La prise de décision de modération autour d’un contenu peut suivre un arbre décisionnel
s’articulant autour de trois critères distincts. Ceux-ci ne rentrent pas en opposition les uns
avec les autres, mais cohabitent dans l’éco-système du contrat social participatif.
#QUESTION 1
DANS QUELLES CIRCONSTANCES
PEUT-ON CONSIDÉRER QU'UN
COMMENTAIRE DOIT ÊTRE REJETÉ ?
Le contenu est-il une infraction grave, manifeste et objective de la législation en vigueur ?
Le non-filtrage de contenus illégaux met en danger la communauté d’utilisateurs,
dégrade significativement l’image de la marque auprès du public et, conséquence qui
n'est pas la moindre, fait encourir des risques juridiques substantiels pour l’éditeur de la
plateforme ou du service.
Entrent dans ce cadre les concepts juridiques tels que : la diffamation, la discrimination,
les injures publiques, les appels à la violence voire au meurtre, etc.
0 7
Le contenu est-il de nature à dégrader l’ambiance de la communauté ou à gêner la bonne
tenue des participations ?
Moins susceptibles d’engendrer des conséquences judiciaires que les contenus illégaux, les
publications toxiques se révèlent malgré tout insidieusement dommageables pour la
communauté, son ambiance, son climat agréable et sécuritaire.
Peuvent rentrer dans cette case : le dénigrement entre internautes, les moqueries sur le
physique, l’humour noir sur des personnes décédées, mais aussi les spams promotionnels
et tentatives d’arnaques etc.
8. 3. LA CONFORMITÉ AUX RÈGLES DE COMMUNAUTÉ
O U I
1
2
3
N O N
O U I
N O N
O U I
N O N
Le contenu enfreint-il les règles personnalisées propres à l’espace
communautaire ?
Son thème,
Ses attentes éditoriales,
Sa cible d’audience.
Chaque communauté peut avoir ses règles indexées sur :
1.
2.
3.
Ainsi, ce qui est peut être considéré comme indésirable sur une plateforme ne
le sera pas sur une autre.
Publier une photo à caractère érotique peut s’avérer problématique sur un
espace communautaire à destination des adolescents, mais peut être
considéré comme acceptable dans le cadre d’une application de dating sexy.
En fonction de la spécificité de la plateforme, il est donc nécessaire d’avoir des
règles communautaires personnalisées et ne rentrant pas en contradiction
avec le bon usage du service.
0 8
LÉGALITÉ = OBLIGATOIRE
TOXICITÉ = FORTEMENT RECOMMANDÉ
RÈGLES INTERNES = PERSONNALISABLES
Le contenu est-il illégal ?
Est-il toxique ?
Est-il en infraction aux règles
internes de la communauté ?
REFUS
REFUS
REFUS
CONTENU
ACCEPTABLE
9. QUE DIT LA LOI ?
Les législations sur la modération de contenus telles que la Loi pour la Confiance dans
l'Economie Numérique (LCEN) et le Digital Services Act (DSA) peuvent varier selon les
pays, mais elles ont toutes pour objectif commun de protéger les droits fondamentaux
des individus, tels que la liberté d'expression, la vie privée et la sécurité.
01 Les plateformes en ligne devront proposer aux internautes un outil leur permettant de
signaler facilement les contenus illicites (une fois le contenu signalé, elles devront
retirer ou bloquer l'accès au contenu illégal)
02 Les market places devront mieux tracer les vendeurs qui proposent des
produits/services sur leur plateforme (recueil d'informations précises avant
l'autorisation de vente)
03 Les plateformes devront prévoir un système de traitement des réclamations pour les
utilisateurs dont le compte a été suspendu ou résilié pour contester cette décision
04 Les très grandes plateformes (+45M d'utilisateurs en EU) et très grands moteurs de
recherche auront l'obligation de proposer un système de recommandation de contenus
non-fondé sur le profilage et expliciter leurs algoritmes
05 Les plateformes en ligne sont tenues de retirer, dans les plus brefs délais, les contenus
clairement illicites signalés par leurs utilisateurs ou par les autorités (contenus racistes,
sexistes, pédopornographies, etc)
06 Les plateformes doivent conserver les données permettant d'identifier les auteurs de
contenus illicites pendant un an
07 Elles doivent collaborer avec les autorités judiciaires et administratives en charge de la
lutte contre les contenus illicites
08 Les plateformes peuvent être tenues responsables pour tout contenu illicite hébergé
sans avoir été rejeté après son signalement
10. LA CHARTE DE MODÉRATION, GARANTE
DE L’HOMOGÉNÉITÉ DES VERDICTS
Dès lors que le cadre est posé, comment garantir la précision et la régularité des verdicts
? Comment s’assurer qu’une Intelligence Artificielle rendra une décision analogue à celle
émise par un modérateur humain ? Comment s’assurer d’une homogénéité des verdicts
dans une activité aussi éminemment subjective et soumise à l’interprétation individuelle
que la modération ?
Ces questions sont loin d’être subalternes puisqu’une incohérence des verdicts émis par la
modération aura tôt fait de frustrer, puis agacer et, enfin, inciter l’internaute à arrêter
d’utiliser le service.
Avant même d’être un document pédagogique à destination de la communauté, la
Charte de modération se doit d’être un playbook formalisé, exhaustif (bien davantage
que la version raccourcie qui sera proposée aux internautes) et enrichi de cas pratiques, à
l’usage des modérateurs.
1 0
38
MEDIAS
79
DATING
120
SITES D'ANNONCES
LONGUEUR MOYENNE D'UNE CHARTE DE MODERATION DANS
LE SECTEUR ...
PAGES PAGES PAGES
11. UNE CHARTE
NON, DES CHARTES
1 1
Réussir à faire lire les Conditions Générales
d’Utilisation à sa communauté demeure un
challenge. Une étude menée par l’Internet
Society France révélait, de façon assez peu
surprenante, que 7 internautes sur 10 ne
lisent jamais ou rarement les CGU, sur un
panel de 1004 personnes interrogées.
Trop longues, trop techniques, trop
alambiquées… Les doléances envers ces
règles de modération sont multiples et pas
foncièrement illégitimes.
Les bonnes pratiques commanderaient
plutôt de suivre les trois axes suivants :
| Visibilité
Les CGU relatives à la modération se
doivent d’être accessibles à un
emplacement proche des modules de
participation. Et pas dans un obscur recoin
poussiéreux du site.
| Transparence
La tentation de définir des règles trop
généralistes et donc trop floues, peut se
révéler pratique pour permettre le rejet de
contributions incommodantes pour
l’éditeur. Mais peut provoquer de
l'incompréhension face à un rejet.
| Concision
Un bullet point par thème et une phrase
pour l’expliciter de façon aussi pédagogique
et universelle que possible. Pas plus, pas
moins.
12. M U T E
1 2
QUID DE LA PÉDAGOGIE ?
Un des principes de la pédagogie auprès
d'une communauté est que l’apprentissage
passe par la répétition.
Supprimer le compte d’un utilisateur d’une
plateforme sociale est souvent une réponse
tardive à un comportement grave,
conséquence d’une dérive plus ou moins
longue. Qui plus est, le bannissement
définitif d’un compte n’a généralement pour
effet que d’inciter l’internaute à se re-créer
un nouvel alias dans la foulée.
A l’inverse, les avertissements et micro-
sanctions peuvent avoir des effets vertueux
si et seulement si ceux-ci sont réactifs et
systématisés dès les premiers dérapages.
Leur application ponctuelle est, elle aussi,
dénuée d’effets positifs. Ce ne sont dans le
fond que l’extension de pratiques assez
répandues sur les espaces de type Chat,
lorsque ceux-ci sont modérés correctement.
#QUESTION 2
ÊTRE (TRÈS) RÉACTIF EST-CE
IMPORTANT POUR LA MODÉRATION ?
La modération en ligne est un travail qui consiste à maintenir un environnement sûr,
accueillant et approprié pour tous les utilisateurs. Les modérateurs sont chargés de
filtrer les commentaires, de supprimer les publications inappropriées et d'empêcher les
utilisateurs de violer les règles de la communauté. Dans ce contexte, la réactivité est
l'une des compétences les plus importantes que doit avoir un modérateur.
B A N N I S S E M E N T
A V E R T I S S E M E N T
D O W N R A N K I N G
Sélectionnez votre
sanction
13. Traiter rapidement les contenus toxiques permet de limiter les dommages. Les
comportements inappropriés en ligne, tels que la haine, le harcèlement, les insultes et
les discours discriminatoires, peuvent se propager rapidement. Si la modération
n'intervient pas rapidement pour supprimer ces contenus et sanctionner les auteurs,
cela peut engendrer un phénomène d'escalade. En outre, les comportements
inappropriés peuvent causer des dommages significatifs aux personnes visées, qu'il
s'agisse de préjudice émotionnel, de stress, d'anxiété ou de dépression. En intervenant
rapidement, un modérateur peut aider à limiter ces dommages et à maintenir un
environnement sûr et accueillant.
Les modérateurs doivent être en mesure de reconnaître les signes avant-coureurs d'un
conflit et d'intervenir rapidement pour le désamorcer. Les conflits entre les utilisateurs
sont fréquents et peuvent causer beaucoup de stress et de confusion dans les espaces
de communication en ligne. Cela peut inclure la suppression de commentaires
provocateurs, la clarification des règles de la communauté ou la médiation entre les
parties. Les actions fines de community management peuvent donc faire partie de la
valeur ajoutée de la modération.
Si les modérateurs ne sont pas réactifs ou ne prennent pas de mesures pour
désamorcer une crise potentielle, les utilisateurs peuvent se demander si la
communauté est correctement gérée.
En intervenant rapidement et efficacement, un modérateur peut maintenir la
crédibilité de la communauté et renforcer la confiance des utilisateurs. Avoir un
espace participatif jonché de propos haineux, ou un site de rencontres perclus de faux
profils aux intentions plus que douteuses n'est pas "juste" regrettable pour la
communauté, elle est dommageable à court et moyen terme pour l'image de la
plateforme qui héberge ces contenus et, in fine, sur ses revenus.
IMPORTANT, NON.
ESSENTIEL, OUI.
1 3
Face à une contribution haineuse d'un autre internaute
32% DES UTILISATEURS FERMENT IMMÉDIATEMENT LA PAGE
* sondage Opinionway ** étude Businesswire
70% DES RÉPONDANTS CONSIDÈRENT QU'IL RELÈVE DU DEVOIR DE LA MARQUE
de protéger sa communauté de l'exposition aux contenus toxiques
*
**
14. Lorsque l’on modère un espace, quel qu’il soit, il est
important d’avoir à l’esprit que le volume moyen de
contenus à traiter est un critère déterminant.
Recevoir en moyenne une dizaine de contenus par
jour peut demeurer gérable quoique contraignant sur
le long terme. Mais en recevoir plusieurs centaines
quotidiennement sur une amplitude 24/7 requière
une personne dédiée à la tâche.
Sans une équipe complète et dédiée appuyée par des
outils performants, la charte de modération que vous
aurez déterminée ne servira à rien ! Deux solutions
s’offrent donc à vous : développer votre équipe en
interne ou bien choisir les services d’un prestataire
qui saura vous accompagner.
Être très réactif permet de conserver une bonne
image de marque, d’éviter les Bad Buzz, mais aussi de
développer le taux de satisfaction de vos clients. Les
internautes sont en effet très « à cheval » sur le
temps que l’on accorde à leurs besoins. Il est
important de toujours donner une réponse rapide et
adaptée aux questions, critiques et remarques
formulées en commentaires. Sachez cependant
prioriser les messages, de manière à traiter les plus
urgents en premier !
Vos espaces publics sur les médias sociaux sont les
vitrines de votre marque sur Internet. Page
Facebook, Forum… vous avez certes l’impression que
ces plateformes sont les vôtres, cependant elles
peuvent vite vous échapper ! C’est seulement avec le
soutien d’une équipe de modérateurs formés et
efficaces à tout moment, que vous serez capables de
réaliser une modération sereine, qui saura protéger
votre marque, mais aussi vos internautes.
COMMENT ASSURER UNE
BONNE RÉACTIVITÉ ?
1 4
15. PUBLICATION D'UN
CONTENU
RÉCEPTION SUR
BACK OFFICE
ANALYSE ET VERDICT
PAR L'IA
DÉPUBLICATION
IMMÉDIATE
MAINTIEN DU
CONTENU EN LIGNE
ANALYSE PAR UN
MODÉRATEUR HUMAIN
1 5
QU'EST CE QU'UN DISPOSITIF DE
MODERATION ROBUSTE EN 2023 ?
Répondre à ses obligations légales en supprimant de la publication sous 24h un appel
au meurtre caractérisé, c'est bien. Mais le faire sous quelques minutes, voire sous
quelques secondes, serait mieux. La réactivité est l'une des caractéristiques les plus
importantes que doit proposer un service de modération pour assurer la sécurité, la
stabilité et la croissance d'une communauté en ligne.
L’intelligence artificielle est un outil primordial pour garantir une gestion rapide et
efficace des contenus toxiques. A titre indicatif, la moyenne du marché quant à la
suppression de contenus indésirables tend à se situer sous la barre des 2 secondes.
Mais tout dispositif de modération automatisé n'a de sens que s'il est complété par
une équipe humaine qui se doit d'intervenir dans tout ce qui est identifié comme
"zone grise" par la machine.
#QUESTION 3
Contenu rejeté Contenu accepté Contenu avec incertitude
16. L'ensemble des signalements émis par des
utilisateurs sur la plateforme est traité par notre
équipe de modérateurs, qui veille sans relâche
chaque jour de la semaine sur l'application Wizz .
Formés avec rigueur, nos modérateurs sont
profondément attentifs à la mise en application de
directives très granulaires, afin de cibler au mieux
les utilisateurs problématiques sur la plateforme.
Ces règles ne sont d'ailleurs pas figées et évoluent
constamment pour s'adapter au mieux aux
utilisateurs.
NICOLAS SUDARSKIS
Customer success manager,
Netino by Webhelp
LA MODÉRATION NETINO BY WEBHELP
CHEZ WIZZ
Nous collectons et traitons 100% des
signalements déposés par les utilisateurs de
l’app Wizz en provenance de 20 pays.
Grâce à sa plateforme Moderatus, Webhelp a
mis en place une interface personnalisée et
unique pour permettre à notre équipe de
modérateurs de consulter et traiter de façon
optimale les importants volumes d’UGC à forte
criticité.
Notre équipe de modérateurs bénéficie d'un
soutien continu de la part de l'équipe Wizz, avec
des comités de calibrage réguliers visant à
affiner la précision de nos interventions.
Ainsi, l'application Wizz collabore de manière
rapprochée avec Webhelp, illustrant leur
engagement sans faille pour la sécurité et le
bien-être de leur communauté, et leur volonté
d'assurer un environnement en ligne sûr et
convivial pour tous leurs utilisateurs
RETOUR SUR EXPERIENCE
17. 1 7
ANALYSE PAR UN
MODÉRATEUR HUMAIN
DOUTE SUR LE CONTEXTE
ET L'IMPACT SUR LA
COMPRÉHENSION DU
CONTENU
PROPOS EMPLOYANT DES
ÉLÉMENTS DE LANGAGE
NON IDENTIFIÉS
MENACE POTENTIELLE
ANALYSE CONTEXTUELLE
EN TENANT COMPTE DE
LA THÉMATIQUE ET
ÉCHANGE PÉRIPHÉRIQUE
ESCALADE À TASK FORCE
IA POUR ENRICHISSEMENT
DU MODÈLE
ANALYSE DÉTAILLÉE
DU CONTEXTE ET
SIGNALEMENT POTENTIEL
À LA PLATEFORME
ET AUX AUTORITÉS
MAIS L'IA DANS LA MODÉRATION,
QU'EST-CE QUE C'EST EXACTEMENT ?
Dans le domaine de la modération, le terme "intelligence artificielle" peut être
quelque peu fourre-tout, mais englobe communément 3 dispositifs distincts d'une
sophistication et d'une précision variables.
En dépit des progrès significatifs effectués ces dernières années, les mécanismes d'IA
seuls ne peuvent à date pas encore assurer une modération 100% fiable et qualitative,
garantissant aux hébergeurs de plateforme une parfaite sérénité.
A raison : outre l'inépuisable imagination pour contourner les règles de la communauté
et ainsi poster des contenus toxiques, ce qui nécessite une constante adaptation des
dispositifs, le modérateur en chair et en os prend toute sa valeur ajoutée dans la
distinction des contenus sibyllins, ironiques, très contextuels, nécessitant une référence
socio-culturelle, etc. De même, lorsqu'un contenu indique une potentielle mise en
danger de la vie des personnes, il est impératif qu'un humain soit présent dans la
boucle afin d'estimer finement la réalité de la menace potentielle et effectuer les
actions conséquentes qui s'imposent (y compris le signalement aux autorités)
L'IA DANS LA MODÉRATION,
PAS ENCORE TOUT À FAIT AUTONOME ?
18. 2. GRAPHES SEMANTIQUES
3. MACHINE LEARNING | DEEP LEARNING
Représentation des relations entre différents
concepts organisés en arborescence, les
graphes permettent une détection affinée par
rapport aux corpus de termes précédemment
évoqués.
1 8
Sur la base d'un protocole d'annotation de data où
des modérateurs humains vont catégoriser des
contenus, un modèle d'IA peut être mis en place.
Afin de garantir la pertinence du modèle, une masse
critique de quelques centaines de milliers de
contenus est souhaitable, idéalement issus du
scope de la plateforme cible afin de garantir un
apprentissage personnalisé. Plus le data set initial
sera riche, plus il sera possible d'obtenir un modèle
d'IA précis. Attention, il sera toutefois indispensable
de conserver dans la boucle des modérateurs
humains qui vérifieront et alimenteront la machine
avec des nouveaux éléments de langage.
PERFORMANCE
FACILITÉ D'EXÉCUTION
PERFORMANCE
FACILITÉ D'EXÉCUTION
CORPUS DE TERMES DÉCLENCHEURS - "TRIGGERS"
1.
Il s'agit d'agrégats de termes et éléments de
phrases admis comme étant indésirables, soit de
façon générale, soit spécifiquement sur la
communauté. De façon plus raffinée, certains
éléments peuvent ne pas déclencher un rejet
systématique mais plutôt un routage pour
vérification par l'équipe humaine. Une analyse data
est généralement préférable pour déterminer
statistiquement les termes au scoring de risque le
plus important et qui sont donc à prioriser
spécifiquement sur l'espace-cible. Ce dispositif
risque toutefois de générer des faux-positifs (des
rejets illégitimes) en nombre.
PERFORMANCE
FACILITÉ D'EXÉCUTION
19. #EXPERTISE
1 9
#QUESTION 4
FAUT-IL EXTERNALISER
LA MODÉRATION DE SES CONTENUS ?
Le métier de la modération est complexe, car en perpétuelle évolution, aussi bien au
niveau des bonnes pratiques, des outils et des solutions technologiques. C'est pourquoi
il est nécessaire d'être accompagné par une entreprise spécialisée.
Les entreprises doivent veiller à ce que les contenus publiés sur leur site et sur les
réseaux sociaux soient conformes aux normes éthiques, juridiques et sociales. Tout
comme les plateformes doivent s’assurer que chaque utilisateur est en sécurité tout au
long de leur navigation. C'est pourquoi de plus en plus d'entreprises externalisent la
modération de contenu en ligne à des entreprises spécialisées.
Externaliser la modération de contenus en ligne permet aux entreprises de faire
appel à des experts spécialisés dans ce domaine, qui se doivent d'apporter :
| Un accompagnement sur les best practices
Définir des guidelines éditoriales, faire évoluer celles-ci ou repenser la stratégie
participative est une tâche complexe, impactante et nécessitant une évaluation fine
des avantages et inconvénients. Une entreprise externe peut être plus à même de
conseiller la plateforme, par rapport à son expérience sectorielle, mais aussi vis-à-vis
de l'accueil de la communauté quant à ces changements. Un bon partenaire externe
de modération ne doit donc pas être qu'une solution de production : il se doit d'avoir
un rôle de conseil proactif.
| Une conformité vis-à-vis de la loi
L'évolution régulière de la législation par rapport aux obligations des plateformes
met les éditeurs en risque, en cas de manquements. Les changements quant au
devoir de réactivité et de suivi des signalements de contenus litigieux font que le
prestataire de modération se doit d'adapter son dispositif pour rester conforme.
| Une solution technologique
La multiplicité des canaux, les volumes très importants de contributions
d'utilisateurs et l'impératif de déployer des solutions d'automatisation nécessite
l'emploi d'une plateforme unifiée et ergonomique permettant un traitement
homogénéisé et industrialisé. Développer en interne ce type de solution est possible
mais long, coûteux et requiert une expertise qui peut faire défaut tant les tenants et
aboutissants sont nombreux.
20. #GESTION DU TEMPS
#RÉDUCTION DES RISQUES
#FLEXIBILITÉ & ÉVOLUTIVITÉ
Modérer du contenu peut être très chronophage et nécessite une attention constante.
Les entreprises qui gèrent elles-mêmes la modération de leurs contenus consacrent un
temps considérable à cette tâche, ce qui peut nuire à leur efficacité globale.
Externaliser la modération de contenu vous économiserait des ressources et assurerait
une gestion des contenus optimale, même en dehors de vos heures ouvrables.
On observe en moyenne un
taux de rejet de
12%
sur ces amplitudes
2 0
Se retrouver face à des contenus à modérer à longueur de journée peut nuire à la santé
mentale de la personne qui s’en occupe, que ce soit par le degré de toxicité du contenu
ou juste par l’aspect répétitif et -de prime à bord- peu enrichissant de la mission. En
l’externalisant, les entreprises peuvent réduire leur exposition à ces risques et protéger
leurs employés. Les modérateurs d’entreprises dédiées disposent de processus de
protection, de suivi et d’accompagnement au quotidien ainsi que d'outils les
préservant des contenus les plus perturbants.
Si la marque souhaite tout gérer par elle-même, celle-
ci pourrait rencontrer des difficultés face aux pics de
trafic ou à des changements de dernière minute dans
les normes de modération. Les entreprises
spécialisées dans la modération de contenus en ligne
peuvent offrir une grande flexibilité en termes de
volume de travail et de personnel, afin de s'adapter
rapidement à vos besoins changeants. Cette
évolutivité peut être particulièrement importante
pour les entreprises qui connaissent une croissance
rapide ou qui sont confrontées à des événements
inattendus, tels que des campagnes de
désinformation ou des bad buzz.
29%
des contenus postés sur les réseaux
le sont sur des heures dites non ouvrées
(entre 21h et 8h du matin)
21. WELL-BEING DES MODERATEURS
PLUS QU'UN "GOOD TO HAVE"
2 1
Il est important que les modérateurs soient
soutenus et encouragés à être très réactifs.
Ils doivent avoir des outils de modération
efficaces à leur disposition, tels que des
filtres automatisés intervenant en amont,
des alertes de comportement inapproprié,
des systèmes de signalements rapides et
des protocoles clairs pour la gestion des
situations critiques. Ils doivent également
bénéficier d'une formation continue et de
l'appui de la communauté et des supérieurs
hiérarchiques pour leur travail difficile.
#INTERVIEW
QUELS SONT LES FACTEURS LES PLUS IMPORTANTS À CONSIDÉRER LORS DE
LA MISE EN PLACE DE POLITIQUES DE BIEN-ÊTRE POUR LES MODÉRATEURS ?
Conscients que nos modérateurs peuvent
être exposés à des contenus perturbants
voir choquants, nous avons toujours
envisagé la modération de contenu
comme une activité à part avec ses défis
spécifiques et non comme une activité
back-office parmi d’autres. La nature de
ce travail peut avoir un impact significatif
sur la santé mentale et émotionnelle des
modérateurs et il est déjà essentiel de le
reconnaitre. Il est important de fournir
aux modérateurs un environnement de
travail sûr et soutenant, où ils peuvent
partager leurs préoccupations et recevoir
un soutien adéquat. Les politiques de
bien-être doivent inclure des canaux de
communication ouverts à tous, des
mécanismes de signalement des
contenus à risque et des procédures
claires pour gérer les situations difficiles.
MARTIN LE BARS
Trust and Safety
Solutions Director, Webhelp
Nos sites ont une liste de standards à
respecter et nous auditons régulièrement
chacun de ceux opérant des activités de
modération de contenu par le biais de la
société de certification SGS. En parallèle
de ces standards globaux nous
encourageons les sites à mettre en place
des initiatives locales pour mieux
répondre aux attentes de nos agents d’un
point de vue socio-culturel de la région.
Nous allons plus loin en organisant des
challenges d’innovation où nous
demandons directement aux
modérateurs de nous proposer des idées
qui visent à améliorer leur quotidien.
32%
de participation globale
22. Certains signes avant-coureurs peuvent indiquer qu'un modérateur est en difficulté
vis-à-vis des contenus auxquels il est exposé. Ces signes peuvent varier d'une personne
à l'autre.
| CHANGEMENTS ÉMOTIONNELS
Des sautes d'humeur fréquentes, une irritabilité accrue, une tristesse ou une détresse
émotionnelle intense peuvent être des signes révélateurs. Les modérateurs peuvent
également montrer des signes de colère, d'anxiété ou de dépression.
| ISOLEMENT SOCIAL
Si un modérateur commence à se retirer de ses collègues, à éviter les interactions
sociales ou à se sentir isolé, cela peut indiquer qu'il est en difficulté.
| FATIGUE EXCESSIVE
L'exposition régulière à des contenus perturbateurs peut entraîner une fatigue
émotionnelle et mentale. Les modérateurs peuvent se sentir épuisés, avoir des
troubles du sommeil ou manifester une baisse d'énergie globale.
| RÉACTIONS PHYSIQUES
Des symptômes physiques tels que des maux de tête fréquents, problèmes gastro-
intestinaux, douleurs musculaires ou tension peuvent être des signes de détresse liée
au travail de modération.
| DIMINUTION DE LA PRODUCTIVITÉ OU DE LA QUALITÉ DU TRAVAIL
Lorsque des modérateurs ont du mal à se concentrer, à prendre des décisions ou à
maintenir leurs performances, cela peut être un indicateur de leur détresse
émotionnelle.
| ABSENTÉISME
Si un agent commence à être de plus en plus absent, ou de plus en plus fréquemment
en retard, cela peut être le signe d’un rejet du travail de modération de contenu.
2 2
QUELS SONT LES SIGNES AVANT-COUREURS QUI MONTRENT QU'UN
MODÉRATEUR EST EN DIFFICULTÉ FACE À UN CONTENU SENSIBLE ?
23. 2 3
Accès à des programmes d'assistance aux employés sous la forme de Wellness
counsellors et de psychologues 24/7. Ces lignes d’assistance téléphonique sont
volontairement confiés à des prestataires externes pour permettre à nos agents de
se confier dans un environnement neutre.
Formations régulières sur la gestion du stress, la résilience émotionnelle, la
reconnaissance des signes de détresse et les stratégies d'adaptation.
Nous soutenons le bien-être des modérateurs de plusieurs manières. Tout d'abord,
nous mettons en place des politiques et des procédures claires pour gérer les contenus
perturbateurs et offrir un soutien psychologique aux modérateurs. Voici quelques
exemples des ressources mises en place chez Webhelp :
LA PRODUCTIVITÉ N’EST PAS
UN KPI QUE NOUS
REGARDONS DE PRÈS
NOUS PRÉFÉRONS NOUS
CONCENTRER SUR LA QUALITÉ
DE LA MODÉRATION ET SUR
NOTRE CAPACITÉ À GARDER
NOS PEOPLE HEUREUX
QUELLES RESSOURCES ET OUTILS PEUVENT ÊTRE MIS À LA DISPOSITION DES
MODÉRATEURS POUR LES AIDER À MAINTENIR LEUR BIEN-ÊTRE ?
Investissement dans des outils avancés pour
aider les modérateurs à filtrer, classer et gérer
plus efficacement les contenus perturbateurs.
Cela peut réduire la charge émotionnelle
associée au travail de modération.
Mise en place d'un canal de lanceur d’alerte pour
permettre à nos modérateurs de remonter
directement au top management tout
comportement managérial qui pourrait les
mettre en danger.
Mise en place une solution de suivi de la santé mentale de nos agents, People
Analytics. En parallèle, nous avons lié un partenariat avec Welbot pour collecter de
la donnée médicale sur la base du volontariat tout en assurant une barrière
sanitaire entre ces données et Webhelp comme employeur. Cette application
permet à nos agents d’accéder à des parcours personnalisés de bien-être.
Enfin, nous avons rejoins plusieurs associations professionnelles (TSPA – Trust and
Safety Professional Association, Metaverse standard forum, MetaCircle…) pour
partager nos bonnes pratiques et bénéficier de celles des autres acteurs du marché.
Nous avons également souscrit à un abonnement pour chacun de nos modérateurs à
TSPA pour les valoriser et leur montrer qu’ils appartiennent à une communauté de
spécialistes du Trust and Safety, qui dépasse leur site de production ou même
Webhelp. Cette reconnaissance est pour nous un facteur clé de soutien à leur travail.
24. 16 % 76 %
90 %
2 4
RÉSULTAT DU WELLBEING DES MODÉRATEURS CHEZ WEBHELP
Bénéfices
humains
Avantages
commerciaux
Bien-être des
modérateurs
Sens de la
communauté
Modérateurs
compétents et
expérimentés
Fidélisation
élevée des
employés
Environnement de
travail durable
Soins au jour le
jour
Attraction de
talents
Si le travail de nos agents est de protéger les utilisateurs,
notre travail consiste à protéger nos agents
de nos modérateurs
recommandent Webhelp
comme employeur
de taux d'attrition chez
Webhelp contre une moyenne
de 80% dans l'industrie
de nos encadrants sont
issus de promotions
internes en 2022
NOUS PLAÇONS LE BIEN-ÊTRE DE NOS MODÉRATEURS
AU CŒUR DE NOS PRÉOCCUPATIONS
25. CONCLUSION
2 5
La modération, un métier à part entière où l'Intelligence
Artificielle s'articule autour d'un noyau humain
Volumes de contenus en croissance continue,
renforcement des dispositions légales vers toujours
plus d'obligations pour les éditeurs de plateformes,
communautés d'internautes davantage exigeantes
quant à la sécurité des espaces... La tendance est à la
sécurisation généralisée des espaces contributifs.
Si les préjudices de l'exposition aux contenus toxiques
sont indéniables pour les internautes, ils ne sont pas
moindres pour les marques. Outre les tracas légaux,
celles-ci encourent un risque réel de se voir associées
inconsciemment aux dérives se déroulant sur leurs
espaces contributifs. Avec la déperdition d'audience,
de clientèle et, in fine, de revenus que cela implique.
Pour éviter d'en arriver là, il convient de sortir des
organisations artisanales et dépassées faisant
reposer le poids de la modération exclusivement sur
du personnel non spécialisé (allant du community
manager débordé au stagiaire peu concerné) et sur
quelques filtres automatisés à la finesse
approximative.
Répondre à la double injonction de réactivité
maximale quelque soit l'heure et de finesse d'analyse
ne peut se faire que grâce à un dispositif de
modération professionnalisé combinant le meilleur
des deux mondes : la capacité de traitement
instantané et illimité de l'Intelligence Artificielle, alliée
à l'analyse approfondie du modérateur humain.
Et dans un futur immédiat ?
L'entrée en application en février 2024 du Digital
Services Act et son corollaire d'amendes dissuasives
(jusqu'à 6% du CA mondial de la plateforme en cas de
manquements caractérisés) ne peut que contribuer à
repositionner davantage la modération à sa juste
place : au coeur de la stratégie digitale des marques.
26. Besoin de conseils pour naviguer dans l'univers captivant de la
modération hybride ? Nous sommes là pour vous !
N'hésitez pas à nous contacter pour échanger et trouver ensemble les
solutions qui répondent à vos besoins spécifiques.
www.netino.fr
adechelle@webhelp.fr
MERCI