15. CODE DE BONNE CONDUITE NUMÉRIQUE

Explique ce qu’est un code de bonne conduite numérique et donne des indications sur les éléments qu’il devrait contenir. Le code de bonne conduite peut porter plusieurs noms : nétiquette, e-étiquette, politique de citoyenneté numérique, etc.

1.1 Qu’est-ce qu’un « code de bonne conduite numérique »?

Le code de bonne conduite numérique renferme l’ensemble des règlements quant à l’utilisation d’une plateforme participative. C’est à partir de ces règles que s’opère la modération du contenu et des usagers. Il s’agit d’un outil efficace pour éduquer vos usagers à la culture du web participatif et ainsi contribuer à maintenir un climat à la fois sécuritaire et respectueux sur votre plateforme.

1.2 Quels éléments inclure dans son code de bonne conduite numérique?

Les thématiques courantes à couvrir sont le partage d’informations personnelles, le manque de respect envers les autres usagers, les contenus et sujets de conversations inappropriés et les comportements perturbateurs (spamming, abus du mécanisme de signalement, etc.). Il peut être utile aussi de rappeler les principes du droit d’auteur pour éviter que des usagers publient des œuvres protégées, de façon intentionnelle ou non.Dans un langage adapté au public, le code de bonne conduite numérique doit énumérer de la manière la plus exhaustive possible les droits et responsabilités, les attentes et les conséquences lors d’une infraction. Le code devrait préciser quelles sont les conséquences si les règles ne sont pas respectées, par exemple la suppression du contenu, la suspension ou la fermeture du compte de l’usager.

1.3 Comment doit-on intégrer le code de bonne conduite sur la plateforme?

Il n’existe pas de méthode universelle pour présenter un code de bonne conduite numérique. Son importance va varier grandement en fonction du type de plateforme et de la quantité d’activités participatives qu’elle contient. Par exemple, dans un réseau social où il y a plusieurs possibilités d’interactions entre les usagers, le code de bonne conduite numérique peut prendre la forme d’un contrat et son acceptation par l’utilisateur devient une condition préalable à sa participation.

Le code de bonne conduite numérique n’est pas un document exigé par la loi, mais comme la modération du contenu et des usagers s’appuie sur lui, il est recommandé. Pour plus d’informations sur le cadre réglementaire qui s’applique aux plateformes participatives, cliquez ici.
Les magasins d’applications mobiles n’exigent pas de code de bonne conduite numérique.
Il n’y a pas de code d’autoréglementation qui conseille spécifiquement d’inclure un code de bonne conduite numérique.
  • Certaines plateformes intègrent leur code de bonne conduite numérique à même leurs conditions d’utilisation, mais en production jeunesse, vous avez avantage à en faire un document à part entière pour démontrer votre engagement envers la sécurité de vos usagers;
  • Faites en sorte que les parents aient accès en tout temps au code de bonne conduite numérique;
  • Si votre public est d’âge préscolaire, le code devrait s’adresser aux parents et se retrouver dans la section réservée aux parents;
  • Si votre plateforme s’y porte, intégrez votre code de bonne conduite numérique de manière ludique pour augmenter la motivation des enfants à mettre les règles en pratiques;
  • Évitez le jargon juridique : il doit être écrit dans un langage familier, adapté au niveau de maturité de votre public. Par exemple, utilisez des formulations familières, comme : « Quand tu viens jouer ici, tu n’as pas le droit de […] »;
  • L’énoncé d’une règle doit être précis. Au besoin, vous pouvez illustrer avec des exemples les idées plus complexes. Un énoncé tel que « Attention à votre vie privée! Vous ne devez pas partager d’informations personnelles à travers l’outil de clavardage » pourrait être complété avec la liste de ce que constitue une information personnelle;
  • Graduez les sanctions en fonction de l’infraction et du nombre d’offenses de l’usager : un avertissement, retirer le contenu, bloquer le compte pour une journée, fermer le compte, etc.;
image001
Source : Là est la question
  • Faites du code de bonne conduite numérique une condition de participation : exigez que l’usager coche une case « Je confirme avoir lu et accepté » avant de lui donner accès à la plateforme.
image 2
Source : Zone Jeunesse, Radio-Canada

Voir la bibliographie.

Lire la suite

14. MODÉRATION DU CONTENU ET DES USAGERS

S’adresse aux plateformes participatives qui intègrent du contenu généré par les usagers et/ou qui permettent aux usagers d’interagir entre eux ou avec le contenu.

1.1 Qu’est-ce que la modération et sur quelles bases doit-on modérer?

Modérer une plateforme interactive, c’est filtrer le matériel soumis et les interactions entre les usagers en appliquant un ensemble de règles préétablies pour distinguer l’acceptable de l’inacceptable. Sur une plateforme jeunesse, on modère :

  • Les discours, comportements et contenus « inappropriés » (usager adulte/prédateur, prévenir les rencontres dans le monde réel, actes violents, drogue, alcool, armes, activités illégales, etc.);
  • Le manque de respect envers les autres usagers (harcèlement, intimidation, langage inapproprié, remarques racistes, sexistes et haineuses, etc.);
  • Le dévoilement d’informations personnellement identifiables;
  • Les comportements perturbateurs (abus du mécanisme de signalement, spamming, se faire passer pour un employé de la plateforme, etc.);
  • Les contenus qui violent des droits de propriété intellectuelle (ex. mise en ligne d’un lien pour télécharger illégalement un film ou encore le partage d’une photo qui n’appartient pas à l’usager).

1.2 Quelles sont les différentes approches pour modérer?

Il existe plusieurs approches pour modérer :

  • A priori : Il y a une période d’attente entre la soumission d’un contenu et sa mise en ligne pour permettre à un modérateur de l’évaluer (pre-moderating);
  • A posteriori : Le contenu soumis sera immédiatement affiché en ligne et placé dans une file d’attente pour être évalué par un modérateur. Celui-ci retire les contenus jugés inappropriés (post-moderating);
  • Automatisée : Utilisation de divers outils techniques qui filtrent les contenus générés par les usagers en fonction de paramètres préétablis. Ces outils sont souvent utilisés pour le clavardage où l’on retrouve par exemple :
    • White list : Mots prédéfinis. L’usager ne peut pas taper ses propres mots.
    • Black list : L’usager tape ses propres messages qui sont filtrés pour que les mots inappropriés ne soient pas vus par d’autres usagers.

1.3 Comment gérer les usagers qui violent les règles du code de bonne conduite?

Les conséquences imposées pour les violations doivent suivre une logique de gradation. À la 1re offense, l’usager reçoit un avertissement formel, à la 2e son compte est suspendu pour 24 heures, etc. jusqu’à la fermeture du compte de l’usager. Ceci éduque des usagers de bonne foi, mais inexpérimentés qui ignorent certaines règles de conduite et c’est un moyen pour les modérateurs de détecter des comportements suspicieux pouvant mener à identifier un prédateur (fiche 21, 1.3).

1.4 Sur quelles bases choisir les méthodes de modération?

Il n’existe pas un modèle universel applicable à toutes les plateformes. Chaque approche procure un niveau de contrôle différent par rapport aux contenus publiés et au contrôle des interactions entre les usagers. Selon vos besoins, vous pouvez opter pour une combinaison d’approches. L’évaluation de vos besoins en termes de modération devrait être basée sur :

  • Une évaluation des risques liés aux contenus générés par les utilisateurs (CGU)
  • Caractéristique de vos usagers (niveau de maturité et d’autonomie)
  • La portion du budget total que vous souhaitez allouer à la modération.

Pour plus d’information : How to De-Risk the Creation and Moderation of User-Generated Content

1.5 Mécanismes de signalement du contenu/comportement inapproprié

C’est un outil qui permet à l’usager de dénoncer de manière anonyme des contenus et/ou des comportements considérés inappropriés. C’est un élément essentiel pour satisfaire à certaines législations sur la propriété intellectuelle, incluant sur le droit d’auteur. En général, l’opérateur sera dégagé de toute responsabilité s’il agit rapidement quand on l’avise de la présence d’un contenu qui enfreint la loi sur sa plateforme.

Le mécanisme de signalement peut se présenter de plusieurs façons, mais l’important est qu’il soit facile d’accès et simple à utiliser. Par exemple, une icône cliquable « Signaler » à chaque endroit où l’on peut partager du contenu ou interagir avec d’autres usagers. Vous devez établir des procédures efficaces pour répondre rapidement à ces alertes.

La modération n’est pas un élément exigé par la loi, mais elle est fortement recommandée en production jeunesse pour des raisons de sécurité. Pour plus d’informations sur le cadre réglementaire qui s’applique aux plateformes participatives, cliquez ici.

ÉTATS-UNIS

Children’s Online Privacy Protection Act (COPPA)

Loi fédérale qui s’applique aux plateformes qui recueillent des informations personnelles d’enfants américains de moins de 13 ans. Sous la COPPA, les photos, vidéos et enregistrements audio contenant l’image ou la voix de l’enfant sont des données personnelles. Si vous permettez aux enfants de partager des photos, vidéos ou enregistrements audio sur votre plateforme, vous devez :

  1. Filtrer et effacer, avant leur mise en ligne, les photos, vidéos ou pistes audio ou l’on voit et/ou entend un enfant; OU
  2. Obtenir le consentement parental vérifiable avant de permettre aux enfants de soumettre des photos, vidéos et/ou enregistrements audio d’eux-mêmes.

La COPPA permet certaines interactions entre usagers (ex. participer à un forum) sans le consentement parental vérifiable si l’opérateur prend des mesures raisonnables (ex. modération a priori) pour s’assurer qu’aucune information personnelle ne soit publiée par inadvertance. Le personnel en contact avec les données personnelles, comme les modérateurs, doit être formé adéquatement pour gérer ces données sensibles.

Chaque magasin d’applications possède un système de classification basé sur la présence de thématiques (ex. violence, niveau de langage, nudité et pornographie, etc.) dans l’ensemble du contenu, incluant les CGU. Les plateformes participatives doivent avoir une méthode de modération pour filtrer les CGU, un mécanisme de signalement du contenu inapproprié et la capacité de bloquer l’accès à la plateforme aux usagers abusifs.

Il n’y a pas de code d’autorèglementation qui s’y penche spécifiquement, mais pour les plateformes participatives, la modération est fortement recommandée.
  • Garder en tête le budget de l’ensemble de votre production et déterminez quelle portion vous souhaitez allouer à la modération selon les fonctionnalités de votre plateforme : des coûts d’opération importants peuvent y être associés;
  • Incluez une clause vous accordant le droit de retirer tout contenu qui ne respecte pas les politiques de votre plateforme;
  • Rappelez les règles de sécurité dans les zones « critiques » de la plateforme. Par exemple, dans l’espace de clavardage, rappelez à l’enfant de ne pas dévoiler d’informations personnelles comme son numéro de téléphone;
  • Si vous optez pour la modération a priori, effacez toutes données personnelles du contenu : brouillez les visages sur les photos, dépouillez les documents des métadonnées, etc.;
  • Les modérateurs sont appelés à travailler de près avec les enfants. Assurez-vous de les choisir avec soin et de les former à gérer les situations problématiques et à travailler avec des données personnelles;
  • Assurez-vous que votre mécanisme de signalement est facile à utiliser et à localiser. Concevez-le pour permettre à l’usager d’expliquer l’objet de sa plainte (« Pourquoi signalez-vous ce contenu? » options à cocher et/ou une zone de texte), ceci va accélérer le processus de traitement des demandes;
  • Afin de prévenir l’échange de données chiffrées (âge, adresse, etc.), on recommande :
    • D’empêcher l’écriture de chiffres (1, 2,…)
    • D’utiliser un outil de black list pour bloquer l’écriture de chiffre par écrit (un, deux…)
  • Pour les produits où l’on veut redoubler de prudence (souvent pour un public très jeune), l’usage d’une white liste est recommandé (interne, section 1.2);
  • Révisez et mettez à jour périodiquement vos méthodes de modération (ex. mots de la black list);
  • La modération d’une plateforme participative peut soulever des questions d’ordre juridique : allez chercher un avis légal pour votre propre protection.

Voir la bibliographie.

Lire la suite

13. CONTENU GÉNÉRÉ (CRÉÉ ou RÉFÉRENCÉ) PAR L’UTILISATEUR (CGU)

S’applique aux plateformes qui permettent aux usagers de publier du contenu.

1.1 Quelles sont les caractéristiques du contenu « créé » et « référencé » par l’utilisateur?

  • Créé : l’utilisateur est l’auteur de ce contenu. Il peut être créé hors ligne et téléchargé sur votre plateforme, comme une photo, ou crée avec des outils de votre plateforme, par exemple la conception d’un item pour un univers virtuel ou un commentaire laissé sur un forum.
  • Référencé : l’utilisateur partage un contenu dont il n’est pas le créateur, par exemple un article d’un grand quotidien ou encore une vidéo trouvée par l’usager dans YouTube.

Les plateformes qui permettent la publication de contenu généré par l’utilisateur (CGU) sont dites « participatives ». Elles soulèvent différentes implications au niveau de la collecte de données personnelles, de la propriété intellectuelle et de la modération du contenu lui-même, mais aussi des usagers.

1.2 Quels sont les dangers liés aux informations personnelles et les CGU?

Avec un public jeunesse, vous devez porter une attention particulière à la collecte de données par inadvertance, c’est-à-dire lorsque l’enfant partage publiquement des informations permettant de l’identifier personnellement. L’enfant pourrait par exemple divulguer son adresse physique dans un forum public. En ce sens, afin d’assurer la sécurité des enfants, vous pouvez envisager d’intégrer des mécanismes de modération du contenu.

Pour plus de détails sur la collecte d’informations personnelles, cliquez ici.

1.3 Est-ce qu’une plateforme jeunesse participative devrait être encadrée?

La présence de CGU sur une plateforme peut induire une certaine perte de contrôle. C’est-à-dire que des usagers peuvent adopter des comportements répréhensibles, par exemple en partageant des contenus offensants ou qui enfreignent des droits de propriété intellectuelle. Une plateforme jeunesse participative « sécuritaire » nécessite la mise en place de mécanismes de modération du contenu et des usagers.

1.4 Quelles sont les implications pour la propriété intellectuelle sur une plateforme participative?

Le propriétaire d’une plateforme participative doit à la fois surveiller l’affichage du contenu pour éviter des violations de droits de propriété intellectuelle, notamment des violations du droit d’auteur, et également obtenir les droits adéquats auprès des usagers pour l’utilisation des CGU. Les conditions d’utilisation d’une plateforme est le document légal dans lequel seront consignées les informations sur la propriété intellectuelle.

Le CGU en lien avec les données personnelles est traité de manière spécifique dans la section portant sur les États-Unis (lien interne). Pour les autres pays, vous pouvez vous référer à la fiche générale sur la collecte. La modération du contenu et des usagers d’une plateforme interactive est traitée en profondeur dans la fiche du même nom. La section qui suit se penche surtout sur la propriété intellectuelle.La Loi sur le droit d’auteurDepuis le 2 janvier 2015, le Canada a adopté un nouveau régime d’avis et avis qui permet aux titulaires de droit d’auteur d’exercer un contrôle relativement à l’utilisation de leurs œuvres publiées sur Internet, incluant les CGU. Ainsi, lorsque l’auteur d’un droit d’auteur croit qu’un CGU enfreint ses droits, il peut communiquer un avis de violation présumée à l’exploitant de la plateforme et ce dernier est tenu de transmettre l’avis à l’utilisateur qui a prétendument enfreint le droit d’auteur. Si l’exploitant refuse d’envoyer l’avis, il pourra être tenu responsable d’avoir autorisé la violation du droit d’auteur.Informations complémentaires :

Gouvernement du Canada, Le Bureau de la consommation, Le régime d’avis et avis.

CANADA

**Québec : Loi concernant le cadre juridique des technologies de l’information
Le Québec est la seule province offrant aux exploitants de plateformes une protection législative à l’égard du CGU. L’exploitant n’est pas responsable des activités des usagers de son service sauf s’il a connaissance que des CGU servent à une activité à caractère illicite. Il doit alors les retirer. Toutefois, l’exploitant n’est pas tenu de surveiller le contenu stocké ou partagé sur son service ni d’investiguer si le contenu est utilisé de manière illicite.

Informations complémentaires :

Loi sur le droit d’auteur 

Québec – Loi sur le cadre juridique des technologies de l’information

ÉTATS-UNIS

Communications Decency Act et Digital Millennium Copyright Act

Les États-Unis possèdent un appareillage légal qui protège assez bien les opérateurs de plateformes participatives.

Lorsque la plateforme présente du contenu entièrement créé par des tiers, l’exploitant peut bénéficier d’une immunité sous la Communications Decency Act et être protégé de toute responsabilité pour la diffusion de CGU, y compris dans les cas d’allégations de diffamation, de déclarations inexactes, frauduleuses et négligentes, de publicité trompeuse et d’autres délits. Toutefois, cette immunité ne couvre pas la violation de la propriété intellectuelle.

La Digital Millennium Copyright Act protège l’exploitant face aux allégations de violations de la propriété intellectuelle. L’exploitant ne peut être tenu responsable de la diffusion et/ou du stockage de CGU enfreignant le droit d’auteur. Pour bénéficier de cette protection, l’exploitant doit élaborer et publier une politique en matière de violation des droits d’auteur, un régime d’avis et de retrait (notice and takedown procedures) et une politique indiquant que les comptes des utilisateurs qui violent à plusieurs reprises les droits d’auteur seront fermés.

Children’s Online Privacy Protection Act (COPPA)

Loi fédérale qui s’applique aux plateformes qui recueillent des informations personnelles d’enfants américains de moins de 13 ans. La COPPA considère les photos, vidéos et fichiers audio contenant l’image ou la voix d’un enfant comme des données personnelles. Si votre plateforme permet de partager ce type de contenu, vous devez obtenir le consentement parental vérifiable avant de permettre à l’enfant de participer à cette activité. Faites aussi attention à la collecte de données personnelles par inadvertance (lien interne, 1.2)

  1. La COPPA s’applique uniquement aux données collectées directement de l’enfant. Par exemple, si vous invitez un adulte (parent, professeur, etc.) à partager une photo de l’enfant, la COPPA ne s’applique pas.

Informations complémentaires:

Federal Trade Commission : Complying with COPPA : Frequently Asked Questions

UNION EUROPÉENNE et FRANCE

Directive sur le commerce électronique

En Europe, cette directive dégage de toute responsabilité l’exploitant d’une plateforme participative s’il ne joue aucun rôle actif qui lui permettrait d’avoir connaissance des CGU stockés sur son système ou d’avoir un contrôle sur ceux-ci. L’exploitant doit agir promptement pour retirer le contenu, ou empêcher l’accès à celui-ci, dès qu’il prend effectivement connaissance ou conscience de son caractère illicite.

Informations complémentaires: Directive sur le commerce électronique

AUSTRALIE

Australian Copyright Act

La loi australienne offre peu de protection aux opérateurs de plateformes participatives. Lorsqu’un CGU enfreint le droit d’auteur sur votre plateforme, vous pouvez être tenu en partie responsable pour avoir autorisé la violation. Vous devez mettre en place des mesures pour surveiller les CGU sur votre site (ex. système de modération pour approuver les CGU avant leur mise en ligne) et retirer ceux qui ne respectent pas les droits d’auteur.

Informations complémentaires:

Australian Copyright Council

Office of the Australian Information Commissioner

Tous les magasins demandent aux développeurs de classifier leur application à partir de l’ensemble de leur contenu, y compris les CGU et les publicités. Chaque magasin possède un système de classification basé sur l’absence ou la présence de thématiques (ex. violence, niveau de langage, etc.) Les magasins exigent que les développeurs respectent les droits de propriété intellectuelle.App Store d’AppleLes applications qui permettent le CGU doivent mettre en place une méthode pour filtrer les contenus, un mécanisme de dénonciation des contenus offensants et la capacité de bloquer les utilisateurs abusifs. Les applications qui permettent de télécharger des contenus de sources tierces (ex. YouTube, Vimeo, etc.) doivent avoir l’autorisation explicite des sources.

Informations complémentaires sur l’App Store d’Apple

Cette fiche s’en remet à la règlementation puisqu’il s’agit d’une sphère bien couverte par la loi.
  • Si vous invitez les enfants à partager des photos et/ou des vidéos personnelles, assurez-vous de filtrer ces contenus avant leur mise en ligne afin d’éviter le partage public de données personnellement identifiables;
  • Obtenez les droits adéquats sur les contenus fournis par des usagers à travers vos conditions d’utilisation (ex. voulez-vous être propriétaire du contenu ou simplement avoir une licence pour l’utilisation?);
  • Placez les CGU sous licence : les permissions que vous accordez aux usagers pour l’utilisation des CGU affichés sur votre plateforme ne doivent pas être plus vastes que les permissions que vous obtenez auprès de l’usager ayant partagé le contenu;
  • Affichez un avis qui distingue les œuvres protégées par le droit d’auteur sur votre plateforme. Par exemple, si vos conditions d’utilisation précisent que vos usagers demeurent les propriétaires des contenus qu’ils créent, votre avis pourrait se présenter comme ceci :

© [Nom du propriétaire de la plateforme] et collaborateurs 2015.

  • Indiquez dans vos conditions d’utilisation que l’usager ne doit pas afficher de contenus qui enfreignent des droits de propriété intellectuelle et que vous vous réservez le droit de retirer tout matériel en violation;
  • Développez des procédures pour éviter l’affichage de CGU qui enfreignent la propriété intellectuelle, par exemple un système de filtration des contenus avant la mise en ligne;
  • Affichez dans vos conditions d’utilisation la procédure pour déposer une plainte relative à la propriété intellectuelle. Les plaintes devraient être traitées rapidement :
  1. Supprimez le contenu en violation;
  2. Prévenez l’usager ayant affiché le contenu en violation que son contenu a été retiré, expliquez pourquoi et rappelez-lui vos politiques en lien avec la propriété intellectuelle;
  3. Si approprié en fonction de votre code de bonne conduite numérique, considérez une sanction pour l’usager fautif;
  4. Avisez-le plaignant que le contenu a été retiré.
  • Ayez un système qui permet aux usagers de facilement signaler des CGU offensants;
  • Les plateformes participatives soulèvent plusieurs questions d’ordre juridique : allez chercher un avis légal pour votre propre protection.

Voir la bibliographie.

Lire la suite