Proposition d'expérimentation: une équipe de médiation

ça me va !

1 Like

S’il n’y a pas d’autres retours je posterais donc le message tel quel samedi prochain.

4 Likes

comme s’il fallait un consensus permanent, c’est à dire que si une seule personne s’oppose alors la légitimité est perdue

J’ai tout de même un doute sur cette partie. Je pense qu’il est étrange de laisser les parties impliquées (les gens qui se crient dessus l’un l’autre pour reprendre l’analogie) contester la légitimité du médiateur/modérateur (la personne, pas la décision). Par contre qu’un observateur externe quelconque puisse le faire je trouve ça particulièrement sain.

Sinon le texte est limpide, clair, mais on commence à en avoir l’habitude avec @dachary :wink:

1 Like

J’aimerais bien lire des choses qui parlent de ça: il doit y en avoir. Ça a été une surprise pour moi de constater que personne ne demandait mon exclusion de l’équipe de médiation. Et comme c’est difficile de faire des généralités a partir d’un cas isolé, ça donne envie d’écouter des personnes qui ont étudié la question.

J’ai vu que quelques ressources avaient été partagées sur la modération. Je me permets d’en rajouter une autre : Supporting Volunteer Moderation Practices in Online Communities, une thèse de Joseph Seering.

Je ne me suis pas encore tout approprié mais je me permets de résumer quelques éléments tirés du chapitre « 2.2.2 The Communities Perspective: Users’ Intra-group Moderation ».

  • Pas mal de recherches sur le sujet se sont basés sur les travaux de Elinor Ostrom et ses 8 principes pour gérer les communs.
  • Il y a beaucoup d’expériences passées sur Internet où on a vu émerger des « démocraties virtuelles » comme sur Usenet, MUDs (Multi-User Dungeons, Domains or Dimensions), the Whole Earth ’Lectronic Link (WELL), le jeu Habitat de Lucasfilm, etc.
  • Si le terme de « modérateur » est souvent utilisé, en pratique le rôle de ces personnes pourrait se qualifier plus comme « animateur/coordinateur de communautés ».
  • Kraut and Resnick identifient 5 défis dans la gestion des communautés
    1. Encourager la contribution
    2. Encourager à s’impliquer
    3. Réguler les comportements
    4. Accueillir les nouveaux arrivants
    5. Créer de nouvelles communautés
  • Un espace bien modéré/animé améliore la qualité des contributions et aide les communautés à affronter les périodes de turbulence
  • En général, la cohabitation avec les administrateurs systèmes se passe bien, souvent les deux groupes n’ont pas besoin de se coordonner plus que ça
  • Seering et al. propose d’analyser la modération a 3 niveaux de granularité différents :
    1. au quotidien : en intéragissant avec les membres, en avertissant ceux qui enfreignent les règles et en les leur expliquant, en enlevant certains contenus en cas de problème, et en gérant le contre-coup de ces suppressions
    2. à l’échelle de plusieurs mois : l’apprentissage de la modération. le recrutement, la différenciation des roles, comment gérer les différentes situations qui peuvent arriver, et de manière plus large, le développement d’une philosophie de modération
    3. à l’échelle de la vie de la communauté : adaptation aux dynamiques de la communauté, intégrations des changements culturels en revoyant les règles de la communauté et comment elles sont appliquées
  • Le niveau de granularité 1 et 3 est largement discuté, avec plein de cas concrets, d’idées et d’exemples par la suite dans des sous-sous sections dédiées. Le niveau 2 est selon l’auteur déjà traité par lui même dans un autre article et Squirrel.
  • Quelques exemples pour le quotidien
    • Les rôles des modérateurs Twitch. Wohn identifie 4 roles (non-exclusifs) dans les commautés Twtich :

      • “Helping hands”
      • “Justice Enforcers” → font respecter un ensemble de normes ou valeurs, comme la suppression de contenus racistes ou sexistes.
      • “Surveillance Units”
      • “Conversationalists” → des facilitateurs de communauté pour créer des conversations intéressantes
    • Le programme de mentoring de Wikipedia « adopte un utilisateur »

  • Quelques exemples au niveau de la durée de vie de la commu
    • Sternberg identifie 3 process basés sur les règles. Elle note par exemple que souvent les règles sont pas créées préemptivement mais après coup, après qu’une offense perçue se soit passée. De la même manière, elle note qu’un changement de règle peut être impulsée par un changement de dynamique dans la communauté ou des valeurs pre-existantes chez les modérateurs.
      • rule-breaking,
      • rule-making,
      • rule-enforcement

Je partage parce que je trouve que ça ouvre quelques perspectives :slight_smile: L’article fourmille de références et d’exemples, je vous invite à aller creuser si ça vous intéresse, mon résumé ne rend pas hommage à l’exhaustivité des exemples et expériences passées recensées par l’auteur !

Pour continuer la réflexion, j’avais aussi déniché un document bien sympa : Chapitre 16 - Animation et modération des communautés virtuelles d’enseignants.

Je cite un extrait qui reprend un article de Preece et Maloney-Krichmar de 2003 :


Constituer les bases des interactions

  • en définissant le domaine de discussion et en encourageant les participants à échanger pour construire des représentations communes,
  • en présentant les personnes les unes aux autres,
  • en prenant en charge les problèmes techniques qui peuvent survenir…

Assurer une présence

  • en proposant aux participants de signer leurs messages et de renseigner leur page personnelle,
  • en encourageant les membres à se présenter personnellement et à décrire leur contexte de travail…

Décourager les disputes et les agressions verbales

  • en encourageant les participants à expliquer leurs points de vue par l’argumentation,
  • en maintenant les discussions autour du domaine de la communauté…

(…)

Construire des relations

  • en encourageant les interactions et les communications s’étendant dans le temps,
  • en développant la confiance mutuelle en s’assurant que tous les messages trouvent une réponse…

Soutenir l’empathie

  • en permettant aux participants d’exposer leur point de vue et leur contexte particulier,
  • en facilitant les conversations privées…

Maintenir la confiance

  • en s’assurant que toutes les demandes sont rencontrées,
  • en assurant une certaine sécurité et une confidentialité aux membres qui parlent de leur vécu…

Tableau adapté de l’article Online Communities: Focusing on sociability and usability, page 20.


Ici il s’agit de critères beaucoup plus appliqués, donc plus concrets mais qui du coup ne s’appliquent pas forcément bien au cas de CHATONS. Mais encore une fois, je me dis que ça peut être une source d’inspiration. Là encore, le document est beaucoup plus riche que mon petit extrait.