14. MODÉRATION DU CONTENU ET DES USAGERS

S’adresse aux plateformes participatives qui intègrent du contenu généré par les usagers et/ou qui permettent aux usagers d’interagir entre eux ou avec le contenu.

1.1 Qu’est-ce que la modération et sur quelles bases doit-on modérer?

Modérer une plateforme interactive, c’est filtrer le matériel soumis et les interactions entre les usagers en appliquant un ensemble de règles préétablies pour distinguer l’acceptable de l’inacceptable. Sur une plateforme jeunesse, on modère :

  • Les discours, comportements et contenus « inappropriés » (usager adulte/prédateur, prévenir les rencontres dans le monde réel, actes violents, drogue, alcool, armes, activités illégales, etc.);
  • Le manque de respect envers les autres usagers (harcèlement, intimidation, langage inapproprié, remarques racistes, sexistes et haineuses, etc.);
  • Le dévoilement d’informations personnellement identifiables;
  • Les comportements perturbateurs (abus du mécanisme de signalement, spamming, se faire passer pour un employé de la plateforme, etc.);
  • Les contenus qui violent des droits de propriété intellectuelle (ex. mise en ligne d’un lien pour télécharger illégalement un film ou encore le partage d’une photo qui n’appartient pas à l’usager).

1.2 Quelles sont les différentes approches pour modérer?

Il existe plusieurs approches pour modérer :

  • A priori : Il y a une période d’attente entre la soumission d’un contenu et sa mise en ligne pour permettre à un modérateur de l’évaluer (pre-moderating);
  • A posteriori : Le contenu soumis sera immédiatement affiché en ligne et placé dans une file d’attente pour être évalué par un modérateur. Celui-ci retire les contenus jugés inappropriés (post-moderating);
  • Automatisée : Utilisation de divers outils techniques qui filtrent les contenus générés par les usagers en fonction de paramètres préétablis. Ces outils sont souvent utilisés pour le clavardage où l’on retrouve par exemple :
    • White list : Mots prédéfinis. L’usager ne peut pas taper ses propres mots.
    • Black list : L’usager tape ses propres messages qui sont filtrés pour que les mots inappropriés ne soient pas vus par d’autres usagers.

1.3 Comment gérer les usagers qui violent les règles du code de bonne conduite?

Les conséquences imposées pour les violations doivent suivre une logique de gradation. À la 1re offense, l’usager reçoit un avertissement formel, à la 2e son compte est suspendu pour 24 heures, etc. jusqu’à la fermeture du compte de l’usager. Ceci éduque des usagers de bonne foi, mais inexpérimentés qui ignorent certaines règles de conduite et c’est un moyen pour les modérateurs de détecter des comportements suspicieux pouvant mener à identifier un prédateur (fiche 21, 1.3).

1.4 Sur quelles bases choisir les méthodes de modération?

Il n’existe pas un modèle universel applicable à toutes les plateformes. Chaque approche procure un niveau de contrôle différent par rapport aux contenus publiés et au contrôle des interactions entre les usagers. Selon vos besoins, vous pouvez opter pour une combinaison d’approches. L’évaluation de vos besoins en termes de modération devrait être basée sur :

  • Une évaluation des risques liés aux contenus générés par les utilisateurs (CGU)
  • Caractéristique de vos usagers (niveau de maturité et d’autonomie)
  • La portion du budget total que vous souhaitez allouer à la modération.

Pour plus d’information : How to De-Risk the Creation and Moderation of User-Generated Content

1.5 Mécanismes de signalement du contenu/comportement inapproprié

C’est un outil qui permet à l’usager de dénoncer de manière anonyme des contenus et/ou des comportements considérés inappropriés. C’est un élément essentiel pour satisfaire à certaines législations sur la propriété intellectuelle, incluant sur le droit d’auteur. En général, l’opérateur sera dégagé de toute responsabilité s’il agit rapidement quand on l’avise de la présence d’un contenu qui enfreint la loi sur sa plateforme.

Le mécanisme de signalement peut se présenter de plusieurs façons, mais l’important est qu’il soit facile d’accès et simple à utiliser. Par exemple, une icône cliquable « Signaler » à chaque endroit où l’on peut partager du contenu ou interagir avec d’autres usagers. Vous devez établir des procédures efficaces pour répondre rapidement à ces alertes.

La modération n’est pas un élément exigé par la loi, mais elle est fortement recommandée en production jeunesse pour des raisons de sécurité. Pour plus d’informations sur le cadre réglementaire qui s’applique aux plateformes participatives, cliquez ici.

ÉTATS-UNIS

Children’s Online Privacy Protection Act (COPPA)

Loi fédérale qui s’applique aux plateformes qui recueillent des informations personnelles d’enfants américains de moins de 13 ans. Sous la COPPA, les photos, vidéos et enregistrements audio contenant l’image ou la voix de l’enfant sont des données personnelles. Si vous permettez aux enfants de partager des photos, vidéos ou enregistrements audio sur votre plateforme, vous devez :

  1. Filtrer et effacer, avant leur mise en ligne, les photos, vidéos ou pistes audio ou l’on voit et/ou entend un enfant; OU
  2. Obtenir le consentement parental vérifiable avant de permettre aux enfants de soumettre des photos, vidéos et/ou enregistrements audio d’eux-mêmes.

La COPPA permet certaines interactions entre usagers (ex. participer à un forum) sans le consentement parental vérifiable si l’opérateur prend des mesures raisonnables (ex. modération a priori) pour s’assurer qu’aucune information personnelle ne soit publiée par inadvertance. Le personnel en contact avec les données personnelles, comme les modérateurs, doit être formé adéquatement pour gérer ces données sensibles.

Chaque magasin d’applications possède un système de classification basé sur la présence de thématiques (ex. violence, niveau de langage, nudité et pornographie, etc.) dans l’ensemble du contenu, incluant les CGU. Les plateformes participatives doivent avoir une méthode de modération pour filtrer les CGU, un mécanisme de signalement du contenu inapproprié et la capacité de bloquer l’accès à la plateforme aux usagers abusifs.

Il n’y a pas de code d’autorèglementation qui s’y penche spécifiquement, mais pour les plateformes participatives, la modération est fortement recommandée.
  • Garder en tête le budget de l’ensemble de votre production et déterminez quelle portion vous souhaitez allouer à la modération selon les fonctionnalités de votre plateforme : des coûts d’opération importants peuvent y être associés;
  • Incluez une clause vous accordant le droit de retirer tout contenu qui ne respecte pas les politiques de votre plateforme;
  • Rappelez les règles de sécurité dans les zones « critiques » de la plateforme. Par exemple, dans l’espace de clavardage, rappelez à l’enfant de ne pas dévoiler d’informations personnelles comme son numéro de téléphone;
  • Si vous optez pour la modération a priori, effacez toutes données personnelles du contenu : brouillez les visages sur les photos, dépouillez les documents des métadonnées, etc.;
  • Les modérateurs sont appelés à travailler de près avec les enfants. Assurez-vous de les choisir avec soin et de les former à gérer les situations problématiques et à travailler avec des données personnelles;
  • Assurez-vous que votre mécanisme de signalement est facile à utiliser et à localiser. Concevez-le pour permettre à l’usager d’expliquer l’objet de sa plainte (« Pourquoi signalez-vous ce contenu? » options à cocher et/ou une zone de texte), ceci va accélérer le processus de traitement des demandes;
  • Afin de prévenir l’échange de données chiffrées (âge, adresse, etc.), on recommande :
    • D’empêcher l’écriture de chiffres (1, 2,…)
    • D’utiliser un outil de black list pour bloquer l’écriture de chiffre par écrit (un, deux…)
  • Pour les produits où l’on veut redoubler de prudence (souvent pour un public très jeune), l’usage d’une white liste est recommandé (interne, section 1.2);
  • Révisez et mettez à jour périodiquement vos méthodes de modération (ex. mots de la black list);
  • La modération d’une plateforme participative peut soulever des questions d’ordre juridique : allez chercher un avis légal pour votre propre protection.

Voir la bibliographie.