Bonjour, on m’a encouragé à poursuivre mon sujet ici. Il s’agit de savoir comment les chatons doivent modérer ou quand ils doivent donner des données. Dans les conditions de service, il est écrit que les chatons ne doivent pas donner de données si la police les demande - sauf s’il y a une décision officielle. En Allemagne, il y a malheureusement quelques instances Mastodon qui sont mal modérées. On y diffuse du matériel qui porte atteinte à la dignité et à la vie privée. Que se passe-t-il si, par cette réglementation, on porte alors préjudice aux personnes dont les images sont publiées sur ces sites ? @quentin a proposé de créer un cours pour former les hébergeurs et les utilisateurs.
Avertissement : les sujets abordés comprennent des abus sur les enfants ainsi que du harcèlement moral et sexuel
Merci @kate pour ton message. Je me permets de préciser ma pensée dans ce message parce qu’il pourrait laisser penser que je serais en train de me lancer dans une tâche titanesque, ce qui n’est pas le cas, ma démarche est (malheureusement) bien plus modeste.
La version courte
Il peut être facile de rejeter l’argument de Kate en disant que ce qu’elle pointe est déjà interdit par la loi. Je pense, au contraire, que l’on doit s’en saisir car il y a aujourd’hui une déconnexion, perçue ou réelle, entre la loi et les pratiques.
Les parlementaires entendent bien légiférer pour réduire cette déconnexion mais dans une approche technosolutioniste digne de 1984 qui va nous donner des sueurs froides.
J’invite les CHATONS à investir cette question et à construire un récit alternatif basé sur la gestion autonome de nos communautés.
Je propose quelques pistes pour démarrer, comme utiliser nos interfaces de connexion/inscription pour rappeler la netiquette/le code de conduite, organiser une conférence avec des développeur-euses, chercheur-euses et militant-es sur la question de la modération du Fediverse, et partager nos problèmes, idées et expérimentations sur ces questions en tant que CHATONS.
La version longue
Contexte - Tout d’abord le sujet a commencé sur le canal CHATONS XMPP/IRC/Matrix, il me semble parce que kate est en train de faire la traduction du site web en allemand, et elle nous livrait donc ses retours et impressions sur les textes du collectif, avec un point de vue extérieur. Un autre point de contexte qui me semble important c’est que kate a proposé début 2022 un draft à l’IETF sur la webiquette : The New Webiquette, qui fait écho à la RFC 1855 - Netiquette Guidelines.
La question du revenge porn - Si j’ai bien compris, Kate est très sensible aux questions de diffusions de contenu portant atteinte à la vie privée et à la dignité sur le Fediverse. Concrètement, ce qu’elle observe, ce sont des gens qui relaient du contenu sur le Fediverse (sans attribution), sans se demander si ce contenu était présent légalement à l’origine, et si on a le droit de le repartager, et comment. Kate illustre son idée avec l’exemple du revenge porn. Je crois comprendre que ce sont des cas réels qu’elle a pu observer sur des instances Mastodon en Allemagne.
En regard de la charte - Une partie de la charte faisait écho avec cette inquiétude : un CHATONS ne doit collaborer avec les autorités que si une requête légale en bonne et due forme est fournie. Kate craint que d’adopter cette position en cas de revenge porn par exemple puisse nuire aux victimes, car le contenu aura été largement diffusé sur de nombreuses instances avant qu’une quelconque action ne soit prise. Une personne fait remarquer que c’est aussi au CHATONS de définir ses règles dans les Conditions Générales d’Utilisations (CGU, TOS in english).
Du point de vue de la justice - Bien sûr, tous les cas auxquels on peut penser sont en réalité punis par la loi. Il suffit de regarder le cas avec Altern B, un hébergeur des années '90 qui a fermé suite à un procès qui lui avait été attenté parce qu’un de ses utilisateurs avait publié des photos d’Estelle Halliday. Aujourd’hui c’est encore vrai, on n’est pas abrité derrière son écran, le harcèlement en ligne par exemple peut-être puni de prison ferme : Le youtubeur Marvel Fitness condamné en appel pour « harcèlement moral » . Ce qu’on risque pour du revenge porn est mentionné ici : Que dit la loi : le revenge porn | e-Enfance . Et en même temps, il y a ce sentiment d’une décorrélation entre l’aspect massif du harcèlement en ligne et les quelques cas réellement jugés. Il y a aussi une déconnexion entre la temporalité de la justice (plusieurs années, un secteur qui manque cruellement d’argent d’ailleurs) et la temporalité d’internet (où en 15 jours il peut s’en passer des choses). Et il me semble que le Fediverse, plutôt que de prendre en compte cette tension, l’ignore voire l’exacerbe, à l’image de ce billet salé d’une utilisatrice/administratrice (via @AlPog) : Mastodon really is crumbling — and it will only get worse - the sporks space
La tentation technosolutioniste - Suite à toutes ces critiques sur « les défaillances » de la justice, on voit de plus en plus d’appels à des nouvelles lois technosolutionnistes, que ce soit la loi Avia (heureusement censurée), la loi de retrait des contenus terroristes en moins d’une heure (16 août 2022), le projet de loin européen sur les contenus d’abus sexuel sur les enfants (CSAM, nommé Chat Control par le député EU Breyer). Toutes ces lois ont pour point commun de réduire le temps de réaction autorisée à quelques heures et d’obliger, directement ou indirectement, à l’utilisation d’algorithmes - ou de travailleurs du clic, cf Antonio Casilli et ce doc : Dans l’enfer des modérateurs Facebook - Invisibles #3 (durée : 20 min. - pour la modération. En réalité, rien ne laisse penser que ces lois vont améliorer la situation actuelle en ligne : Loi Avia : des conséquences lourdes sur le milieu LGBTQI+ – AJL ou Contre l'automatisation de la modération et de la censure ⋅ Plume . Ce corpus de lois qui arrive me fait très peur et ressemble quand même beaucoup à de la surveillance de masse : Ces lois qui nous gâchent la vie ⋅ Plume .
Oui, je cite des articles postés sur l’instance Plume de Deuxfleurs, c’est honteux de faire autant son auto-promotion sur le forum CHATONS. Mea culpa.
Aborder la question à notre niveau : prendre conscience - Pour ma part, mes valeurs penchent plus vers la prévention/formation/discussion que la répression. Par exemple, Kate disait quelque chose qui me semblait tout résumer : beaucoup d’usagers de Mastodon ont cet état d’esprit que, juste parce que c’est en ligne quelque part, ils peuvent le distribuer partout en ligne sans avoir à se demander si c’est légal ou une bonne idée. Du coup dans ce spectre j’avais identifié la Netiquette, et maintenant la Webiquette (merci Kate) qui peuvent aider à cette prise de conscience, à changer cet état d’esprit. On pourrait aussi voir à rappeler ces informations lors d’un moment critique, comme un repartage, à l’image de Twitter qui demande si on a vraiment lu un article avant de le repartager. Ça connecte avec le concept de friction, abordé régulièrement par Olivier Ertzscheid, comme quand WhatsApp a interdit de repartager un message dans les groupes de discussion de plus de 40 personnes pour limiter la diffusion de fake news : tu pouvais encore copier coller à la main, mais cette simple friction a changé drastiquement les comportements à l’échelle de la foule (oui je connais le vidéaste fouloscopie :-p).
Je pense aussi aux travaux de thèse en cours d’Audrey Guélou de Picasoft ( Fedithèse [Fedithèse] ) (si tu me lis, désolé de citer partout ta thèse sans en savoir plus, je compte te contacter rapidement) qui pourraient, je l’espère, être un point de départ pour décider ces règles collectivement, ce qui pourrait faciliter leur adoption : on n’applique pas un ensemble de règles imposées auxquelles on est étranger, mais à la place, on définit un ensemble de règles cohérentes collectivement, qui font sens pour nous, et qui sont efficaces pour les problématiques qu’on rencontre, bref notre « savoir chaud », et alimentées par des ressources académiques, des penseurs et penseuses, bref le « savoir froid » (c’est piqué à Franck Le Page cette formulation…).
Aborder la question à notre niveau : mobiliser les utilisateur-ices - Un autre aspect de mes valeurs, c’est que je penche plus vers le collectif et l’autonomie que vers l’individu et la servitude volontaire. J’aimerais donc que la modération soit l’affaire de toutes et tous.
Pour ça j’ai identifié l’intervention de ag3m de La Quadrature du Net chez matrix.org qui partage quelques pensées sur la modération (en anglais) : Open Tech Will Save Us #6 . J’en retiens, très rapidement, une première idée d’un continuum de modération qui va de l’utilisateur-ice (je peux bloquer des mots, des expressions, des comptes) jusqu’à l’État et la justice (comme on a pu voir avec les affaires citées ci dessus), et qu’il y a besoin d’un entre-deux (c’est épuisant de modérer en solo une grosse partie du contenu), il faut donc arriver à mettre en place des pratiques collectives.
Elle retient plusieurs propriétés / idées désirables, comme l’ accountability, bref, rendre des comptes sur ce que tu fais : combien de contenu modéré, pourquoi, par qui, comment la décision a été prise, est-ce qu’on peut faire appel, comment, auprès de qui, etc. (ce qui manque cruellement aux projets de lois technosolutionistes au passage).
Il y a aussi le principe de classification de contenu avec des tags, mais pas juste des hashtags choisis au hasard, mais via une classification qui soit partagée par la communauté. Notez qu’ici la dimension technique est presque anecdotique, on parle plus d’une culture ! Je pense par exemple à AO3 (Archive Of Our Own), un site web de fanfiction qui a mis cette pratique en place de manière très poussée : AO3, la bibliothèque rebelle aux 5 millions de fanfictions .
Je crois que ag3m aborde d’autres points dans sa vidéo mais je ne m’en souviens plus. Au reste, des expériences fonctionnelles de modération communautaires, il y en a eu pas mal. On pourrait citer Wikipedia et OpenStreetMap, après tout, quoi de plus sensible et politique que 1) une encyclopédie qui détient le savoir et 2) une carte qui délimite le monde, ça devrait donc être ingérable ? Pourtant, ces communautés ont su mettre en place une gestion interne sans avoir à « demander à être régulé » (« la situation est intenable, c’est du à un cadre législatif inadapté, on pourrait adopter cette loi qui nous déresponsabilise complètement au prix des libertés civiles »), et on su résister à des pressions extérieurs et crises fortes (les agences de relations publiques pour Wikipedia, une entreprise Indienne qui voulait prendre le contrôle pour OpenStreetMap).
Mais je terminerai plutôt sur Advogato et discourse, deux logiciels / forums / lieux de discussion. Advogato avait mis en place dans les années 2000 un concept nommé Trust Metric, basé sur le concept de web of trust si vous connaissez, mais plus malin. Dans la pratique, vous accordez votre confiance à des utilisateur-ices que vous connaissez, qui a leur tours vont accorder leur confiance à des proches, etc. De ça ressort « une toile » de confiance. En se basant sur cette toile de confiance, on peut très facilement détecter avec des algorithmes de graphe les « bots ». Il a l’avantage aussi de pouvoir donner un score de confiance qui soit propre à ma position dans le graphe, et donc permet de s’adapter aux individus. Qui plus est, contrairement aux solutions fermées, ces approches sont documentées par de la recherche publique, publiée dans des revues à comité de lecture, et depuis un certain temps maintenant, juste un exemple d’article que j’avais lu pendant le confinement : Sybil Defense Techniques in Online Social Networks: A Survey | IEEE Journals & Magazine | IEEE Xplore
C’est très flou tout ça, mais appliquons à Mastodon : la toile de confiance existe déjà et elle est publique, c’est la relation follower/following. Je peux donc calculer un score de confiance, depuis ma position (et donc qui n’est pas global, c’est pas un credit score) pour n’importe quel compte du réseau. Je peux ensuite configurer ma timeline : je suis fatigué, j’ai pas envie de me prendre la tête ? Je n’affiche que les messages de gens avec un haut taux de confiance ; au contraire, je veux me lancer dans l’agora et m’immerger dans le grand bain, je réduis ou désactive le seuil de confiance.
Discourse a, à mon sens, une approche similaire de granularité et d’implication dans la communauté. Sans jamais avoir demandé à être modérateur du forum CHATONS, au fur et à mesure de mes interactions sur le forum ce sont débloqués des fonctionnalités, au point qu’aujourd’hui je suis en mesure de renommer n’importe quel fil de discussion ou de supprimer des messages. Ici donc ce n’est pas la confiance des paires qui est mobilisée mais l’implication dans la communauté, mais elle fait sens aussi : avec toute l’énergie investie ici, j’ai pas envie de faire une bêtise et me faire bannir, donc je ne prévois pas d’abuser de ces outils de modération. Et puis, si tu les conçois pour qu’ils soient réversibles, un abus devient moins grave.
Qu’est ce que je/on compte faire, réellement alors ? - Désolé pour ce pavé, mais comme vous pouvez le voir : c’est une réflexion en cours, qui a encore besoin de maturer… Ce que je peux dire, c’est qu’au sein de Deuxfleurs on se sent pas prêt à mettre en ligne un serveur Mastodon/Pleroma/etc. justement à cause de ces problématiques auxquelles on n’a pas de réponse à apporter aujourd’hui. Dans la suite, je vous livre mes réflexions personnelles, et elles ne sont pas la position officielle de Deuxfleurs, tout simplement parce qu’on a pas encore eu le temps d’en discuter collectivement.
Promouvoir la netiquette/webiquette - Après si je dois me risquer à faire des propositions, ça ne coûte rien de repartir sur les bases, la netiquette et sa version moderne la webiquette. On peut la présenter de plein de manières à nos usager-es, et ça pourrait être au moment de se créer un compte, dans une approche épurée et didactique, ou au moment de se connecter, on pourrait mettre un petit message différent à chaque fois, possiblement sur un ton humoristique. Si le besoin s’en fait sentir, ça peut être un engagement à reprendre tous les ans, pour que « l’état d’esprit je ne me pose pas de question » ne soit plus une excuse valable. Ça peut aussi être des brochures qu’on créer et qu’on partage pendant les permanences et ailleurs ? On pourrait essayer de travailler de concert avec des assos qui font de l’éducation aux pratiques en ligne, les écoles & co. Bref, qu’on se fasse aussi identifié comme un collectif qui essaye de faire avancer la question « de la haine en ligne, du harcèlement, & co » mais avec un discours différent du discours dominant.
Faire discuter les gens - Je parlais de ce projet déjà ici : Comment fonctionne la gouvernance de Mastodon? - #8 par quentin mais, en gros, c’est un problème qui semble remonté régulièrement pas des acteur-ices différent-es : académiques, développeur-euses du Fediverse, membres du libre, etc. J’aimerais bien organisé à un moment un temps de rencontre (en physique) où chacun-e puisse partager son expérience, ses idées, son état des lieux, et qu’on puisse partir de là pour construire un discours, et proposer des solutions. On pourrait faire une captation et publier des comptes-rendus. On aura peut-être un peu d’argent pour financer la rencontre d’ici quelques mois, quand on aura plus de visibilité sur notre trésorerie.
Adapter les outils - La technique n’est ni bonne, ni mauvaise, ni neutre, elle est le reflet des gens qui la développe et des structures dans lesquelles ils et elles se retrouvent. On peut donc décider qu’il n’est plus acceptable de ne pas prendre en compte la modération dans nos outils, ou plus exactement, que seul les administrateur-ices systèmes soient autorisées à modérer, sans avoir à rendre des comptes ou ne suivre aucune règle, même si c’est fait de manière honnête et avec les meilleures intentions du monde. On pourrait alors appuyer fortement cette demande pour que les devs priorisent ces fonctionnalités sur d’autres (l’intervention d’ag3m date de 2 ans et les progrès de Matrix sur ce sujet ont été timides depuis, par contre, des ressources de développement on été allouées pour un projet de Metaverse) et développer nos propres outils, à l’image de TeDomum qui a ajouté des interfaces de modération dans sa solution d’authentification Hiboo.
Expérimenter - C’est un peu notre approche à Deuxfleurs d’expérimenter des façons de faire différentes, mais je pense que ça a sa place ici. On est pas mal à avoir quelques connaissances en code, et il doit y avoir des low-hanging fruits, des trucs faciles à faire qui feraient avancer le sujet. Je pense par exemple aux messages sur les écrans de connexion et d’inscription, mettre en place le Code of Conduct et un Community Council de Tor de manière temporaire et voir ce que ça donne, scraper des données sur Mastodon et voir ce que ça donne cette Trust Metric appliquée à ces données de test, etc.
Inspirer - J’ai cité plusieurs projets qui ont trouver un mode de gestion interne qui marche bien (Wikipedia, OpenstreetMap, AO3, Advogato, Tor Project), ça peut-être intéressant de les référencer et d’identifier ce qui fonctionne bien chez eux et en quoi ça peut s’appliquer à nous.
Se saisir de la question au niveau du collectif - Avant d’envisager de proposer une modification de la structure du collectif (charte & co), il me semble important d’avoir les idées claires sur les problèmes et les solutions à adopter, et donc on a besoin d’expérimenter et travailler de notre côté sur la question. Je ne suis pas fan des groupes de travail non plus, je trouve ça contraignant, alors j’aimerais éviter d’en passer par là. Mais je me dis qu’on peut trouver un fil de discussion (celui là ?) pour documenter nos découvertes, expérimentations, faire des choses ensembles - comme organiser cette conférence, etc.
Merci pour ces réflexions riches sur la modération, nous aussi nous sommes timides sur l’idée d’héberger du mastodon, pleroma. On a tout de même déployé du mobilizon.
Répondre à des requêtes de justice demandant des données ou procéder au retrait d’un contenu sont 2 choses distinctes. J’interprète ce point de la charte comme étant essentiellement écrit vis à vis des demandes illégitimes issus d’avocats, personnes de pouvoirs ou autres qui demanderaient la levée de l’anonymat sans décision d’un juge. On a eu le cas chez ARN.
Ceci étant si on parle modération, on parle bien retrait de contenu (en premier lieu). Donc pas directement lié à ce point de la charte, sauf à considérer le cas de la dénonciation.
Modérer une instance locale n’est pas simple, on peut être amené à modérer des personnes qu’on connaît ou qui nous connaissent. Et surtout ça demande du temps si l’instance est grosse.
Ma piste alternative: on jette à la poubelle le concept de réseau social numérique
Plus sérieusement, l’idée d’organiser des discussions sur la « modération » et de réfléchir à des modifications sur les logiciels pour éviter de renforcer certains comportements semble une bonne voie.
Je vais te décevoir, mais c’est plutôt qu’en créant le groupe deuxfleurs, je l’ai paramétré pour que le niveau de confiance automatiquement attribué lorsque les membres sont ajoutés soit au niveau 4 (le maximum).
Merci @quentin pour ce message que je trouve très intéressant. Chez Framasoft, on héberge une des plus grosses instances francophones de Mastodon et donc la modération, c’est notre quotidien (enfin celle de notre équipe de modération - moi, je n’en fais pas partie). Je pense qu’il y aurait des personnes intéressées chez nous pour venir en parler (@Zatalyz peut-être) si un événement venait à être organisé.
Et je me permets de mentionner @audrey car je ne suis pas certaine qu’elle suive assidûment les échanges ici alors que je suis persuadée qu’elle aura de nombreuses choses à partager avec nous.
Zut, un monde qui s’écroule x)
Mais je crois qu’il y a quand même un système comme ça chez Discourse, qui s’appelle Trust Level.
Il est décrit sur ce billet de blog : Understanding Discourse Trust Levels
Il est bien expliqué qu’il n’y a aucun moyen automatique à l’heure actuelle pour passer de TL3 (Habitué/Regular) à TL4 (Meneur/Leader). Pour ma part, j’ai bien eu les badges TL2 et TL3 aussi :
Eux aussi seraient fake ?!
Pour Audrey, je lui ai envoyée un email hier pour l’informer en effet que je la citais. Et je suis très intéressé par les retours de Framasoft bien sûr !
Juste un point de vigilance. @kate a accepté de publier ce sujet sur notre forum et d’écrire en français. Elle n’est pas à l’aise dans notre langue. Je la remercie d’être sortie de sa zone de confort afin de discuter avec nous
Pour la question «Child sexual abuse» abordé par @quentin , il s’agit d’une longue histoire de plus de dix années au niveau de la commission européenne. La timeline est disponible ici :
Il s’agit de la partie politique.
L’expertise technique est portée par cette agence européenne. https://www.enisa.europa.eu/ qui regroupe différents acteurs de l’industrie de l’information.
Une bonne partie des travaux porte sur la construction d’une identité numérique unique. Cette UID permettrait d’identifier chaque citoyen européen de façon fiable et secure.
Il y a une actualité en france avec l’arcom (ex Hadopy) qui menace de bloquer l’accès à cinq acteurs majeurs du porno en ligne par les FAI français. Bien que le but de cet iud n’est pas d’abord de permettre cela, un exemple d’application serait l’accès à des sites à caractère pornographique.
Pornhub est prêt à aller en justice auprès du conseil d’état si la menace est mise à exécution. Cependant, coté arcom, le dossier juridique est… vide.
Quel est le lien avec iud ? Et bien, il est simple. Une iud qualifierait notamment l’age. Et permettrait à Pornhub de donner accès à ses contenus en fonction de l’age qualifiée par cette iud.
Pour autant, cela ne change en rien les contenus pornographiques de ces sites. Notamment sur l’image de la relation à l’autre et à la construction de la sexualité notamment chez les plus jeunes. Il y a une très bonne série documentaire sur l’industrie du porno. Ce sont nos amis anglais de la bbc qui l’ont produite. Pour faire plaisir à @neox un article expliquant ce sujet à l’occasion de la diffusion sur la rts (télé suisse.)
Vous pouvez également visionner ce film pour comprendre l’envers du décor de cette industrie https://www.flair.be/fr/chillax/series-films/pleasure-film-industrie-porno/
Quand aux professionnels de l’éducation, ça devient compliqué à l’école #42 L'éducation à la sexualité et la question du genre — La WebRadio de l'Institut Français de l'Éducation . L’éducation à la sexualité à l’école en france a toujours été pauvre. Elle est inscrite dans les programmes scolaires. Mais ne bénéficie pas d’heures dédiées. C’est au bon vouloir de la politique éducative de l’établissement scolaire et de l’équipe pédagogique. Faire de l’éducation sexuelle au lycée n’a plus vraiment de sens non plus. Il serait nécessaire de commencer plus tôt. Car oui, les enfants qui entrent au collège connaissent tous Pornhub. Et ont un rapport à la sexualité parfaitement biaisée.
Enfin, je souhaite parler de pornographie mais sur le terrain de la liberté d’expression et du consentement explicite, libre et consenti. Ainsi, il faut comprendre ce que peuvent nous dire des personnes telles que Virginie Despentes, sur ce sujet. Je cite cette série de podcast, encore en français, désolé @kate. binge.audio . Il y a également des festival «porno» comme https://brusselspornfilmfestival.com/ en belgique ou en allemagne ou encore la fête du slip, en suisse.
Ce que @quentin a pu observé, notamment à l’occasion d’une session du parlement européen, c’est le retour en force d’un ordre moral bien établi et pas uniquement en Hongrie.
Il ne faudrait pas sous ce prétexte que nous commencions à nous auto censurer. Pour cette raison, @kate, je ne suis pas d’accord avec la webetiquette que vous proposez. Même si j’en comprends l’intention et que j’admire beaucoup votre travail. À mon avis, il ne faut condammer le partage de contenu pornographie sur nos réseaux. Mais condamner le contenu sans consentement explicite. La distinction est faible, Mais elle est importante de mon point de vue.
Le rôle de la prévention
Bon on est HS mais je suis pas d’accord avec ça. Pour moi, il en faut au collège, au lycée et même dans les lieux fréquentés par les jeunes adultes. Je peux citer facilement une dizaine de sujets qui relèvent de l’éducation sexuelle où les jeunes et moins jeunes ont en général peu de connaissance.
Et là où c’est moins HS, c’est que le revenge porn par exemple est aussi un symptôme du manque d’éducation sur le sujet. Il y a dans toutes les villes des phrases écrites au mur « Éduquez vos fils » ça n’est pas pour rien et pas juste pour les moins de 15 ans.
L’identité numérique une piste bien dangereuse
Il y a déjà un décret en France publié en avril 2022 (de mémoire) pour une app d’identité numérique. Mais ça mettra plusieurs année à se déployer majoritairement.
Cependant, de mon côté, je ne vois pas ça d’un bon œil, après guerre il avait été décidé de rendre la carte d’identité nationale optionnelle (décret de 1955) et ce n’est pas pour rien. Je cherche d’ailleurs des infos sur les débats de l’époque notamment sur la possibilité de falsifier les documents.
Bref si la solution de l’UE pour résoudre ce problème de modération c’est de créer une identité numérique et de nous faire installer les logiciels de censure des GAFAM, je suis d’accord avec quentin, il faut construire un récit alternatif, ouvrir d’autres possibles.
Combien de chatons vraiment concernés ?
Ce qui serait intéressant c’est que les chatons publient dans leur rapport d’activité annuel, le temps passé en modération et les problématiques rencontrées (pour les grosses instances).
J’ai aussi le sentiment que nous devrions être plus vigilant⋅es / exigeant⋅es sur l’existence effective de processus et de moyen humain de modération sur un certains nombre d’app. C’est facile d’héberger un lufi ou un raccourcisseur de lien, c’est plus dur de retirer promptement quand il y a un gros soucis. Idem sur le Fédiverse.
Le revenge porn c’est le sujet horrible mais « facile »
La vrai difficulté réside plutôt dans ce qui est moins évident à modérer (de mon point de vue), et là il y a toute sorte de nuances (les discriminations, les droits d’auteurs, la Vérité etc.). Je doute que nous soyons d’accord sur une politique de ce qui devrait être modéré… Et même si les lois se précisent, ça ne signifie pas qu’il n’y aura pas matière à interprétations, bien au contraire. Et en même temps on a pas forcément besoin d’être d’accord sur tout non plus.
Malgré tout, même si le revenge porn c’est le sujet facile il est probable que l’on soit globalement très nul dans CHATONS pour faire face à la question rapidement si elle se présente, simplement parce que je pense que de nombreux chatons du fediverse ne suivent pas les signalements régulièrement lorsqu’iels n’en ont quasiment jamais. Ce qui pose la question très simple comment faire pour améliorer le collectif sur le point précis du suivis des signalements.
La zone grise, et plus particulièrement dans le cas de la sexualité
Résumé - Si le contenu manifestement illégale doit être supprimé, se pose la question de comment gérer le contenu juste après, « à la limite », dans la zone grise. Je me demande si il ne vaut pas mieux le rendre moins visible plutôt que de le supprimer, le mettre derrière des tags qui montre sa vrai nature, accompagner nos utilisateur-ices y compris mineur avec des ressources en amont, et avec des référent-es à qui s’adresser en aval. Tout ça implique une compréhension fine des enjeux autour de ces thématiques et il semble important donc d’avoir accès à des expert-es sur le sujet.
La zone grise : moduler la visibilité plutôt que supprimer ? - Pour moi beaucoup de nos discussions arrivent dans la zone grise, c’est à dire juste après le manifestement illégale. Et c’est justement un sujet qui a beaucoup été réfléchi sur AO3, qui accepte toutes les histoires tant qu’elles ne sont pas manifestement illégales, mais elles doivent être taggées convenablement, et par défaut elles ne ressortiront pas : au delà de l’existence d’un contenu, se pose aussi celle de la portée qu’on veut lui donner. Aussi, la catégorisation qu’on va lui donner importe : bon nombre de productions médiatiques grand public représentent des viols ou du harcèlement sans le nommer, parfois ne vaut-il pas mieux nommer le sexisme ordinaire plutôt que de supprimer uniquement le contenu cru ?
Mon approche était plus méta ? - Je reconnais que la question de la sexualité, de l’éducation sexuel, etc. en ligne était un peu hors du scope de ce que j’avais imaginé au départ en proposant cette réflexion. J’imaginais plus que ce serait traité par « les outils » mis en place suite à cette réflexion : par exemple un système de tag à la AO3, ou lors du processus de définition des valeurs et des règles en commun de chaque hébergeur. Mais ceci dit, ça peut être un exemple pratique pour stimuler la pensée, donc ce n’est pas mauvais en soit j’imagine…
Trouver des interlocuteur-ices sur les sujets complexes - Mon premier réflexe donc face à la sexualité et d’autres sujets, c’est d’aller voir les gens qui en parlent mieux que moi. Parce que sinon on a vite fait de partir sur les lieux communs qu’on nous ressert à toutes les sauces…
Mon exemple pour les contenus sexuels: Ludivin Defe - Sur Twitter, je trouve très pertinent ce que dit Ludivin Defe. Par exemple sur l’éducation sexuelle et l’école, Ludivin dit que la loi Aubry prévoit 3 scéances d’éducation sexuelle à l’école de la primaire au lycée, et il parait que ce n’est pas du tout appliqué. Et ce n’est qu’un mythe parmi d’autres, je vous invite à aller voir, on est beaucoup plus affûté rhétoriquement parlant après
Voir le fil sur l’éducation sexuelle : Thread by @ludivindefe on Thread Reader App – Thread Reader App
Voir le fil qui rassemble tous les fils de Ludivin : https://twitter.com/ludivindefe/status/971491743840563200
Voir le fil « Le porno fait-il l’éducation sexuelle des jeunes ? » : https://twitter.com/ludivindefe/status/1473729114662125580
Le porno n’est qu’une toute partie de nos représentations de la sexualité : https://twitter.com/ludivindefe/status/1009396963228487680
Si je devais me positionner sur les contenus sexuels - Si on s’intéresse à Internet, aux enfants, et à la sexualité, ce qui ressort de Ludivin Defe c’est que 1. l’éducation sexuelle des enfants est grandement défaillante (exemple : dire non aux adultes) 2. beaucoup de panique morale autour du porno et des enfants 3. le porno n’est qu’une toute petite partie de nos représentations de la sexualité 4. l’éducation sexuelle ne se passe pas dans la famille
Dans un principe de construire un discours en opposition au modèle dominant contrôlant et répressif, il pourrait être envisagé par un CHATONS de communiquer publiquement sa « politique de protection des enfants » en mentionnant : 1. des ressources d’éducation sexuelle de confiance sur son site web axées +/- sur les enjeux numériques 2. visibiliser les ressources critiques sur les paniques morales (pas sûr de celle là), 3. expliciter sa démarche vis à vis des représentations de la sexualité (pas de pub, pas de promotion de contenu à la sexualisation stéréotypée, mise en place commune de filtres/tags sur les contenus explicites, pas de mise en avant par un algo des contenus sexualisants stéréotypés, etc.) et 4. avoir un Community Council (cf Tor Policy) un minimum formé vers lequel les enfants et adultes puissent se tourner pour obtenir de l’aide/accompagnement/mise en relation sur ces questions, mutualisé au besoin avec le collectif.
Ce sont juste des exemples en l’air, je n’ai pas réfléchi à l’effort que ce serait de mettre en place tout ça.
Le cas spécifique de @kate - Je ne pense pas que Kate fasse référence directement au cas du revenge porn qui est facile à régler quand il est identifié, mais à celui en amont, où il est indistinguable du porno amateur. À ce sujet, @kate rappelle que, comme tout contenu, ces vidéos sont soumises au droit à l’image, au droit d’auteur, etc. et que de base, les gens devraient s’interroger si ils ont droit de repartager un tel contenu : est-ce que les auteur-ices ont été identifiées ? la permission a t’elle été demandée ? En pratique, bien sûr, jamais, et ça vient heurter cette culture du remix qu’on voit dans les memes, et un peu partout sur Internet. C’est là aussi qu’on voit les limites du cadre légale : est-ce que la team Meme de Framasoft est sûre à 100% d’être dans les clous légalement ? Est-ce que c’est vraiment notre objectif, de se perdre dans des tréfonds légalistes qui n’ont aucune réalité avec les pratiques de la justice ? Ou alors, on essaye de surplomber un peu, et de reconnaître que cette culture du remix existe en dépit de la loi (tout comme les bannières cookie avec un tout petit bouton refuser), et de mettre des limites là où on est pas sûr de notre coup. On pourrait alors dire que, si les questions de revenge porn sont indistinguables du porno amateur, et que c’est un sujet pertinent, pourquoi ne pas décider, à notre échelle, d’exclure le remix de ce genre de contenus de nos plateformes, parce que contextuellement, et il y a toujours un contexte, on juge que la situation le nécessite ?
La modération, est-ce un vrai sujet chez les CHATONS ?
Résumé - À mon sens, oui, la modération est un vrai enjeu chez les CHATONS, et ça couvre tout le spectre, du contenu le plus horrible au plus insignifiant. Le Fediverse vient rajouter une complexité supplémentaire dans cette tâche dans le sens où on doit modérer le contenu des autres instances. Et plus qu’un détail, à mon sens c’est un vrai enjeu, en voyant les dégats que ça peut faire chez les modérateur-ices de Facebook ou d’un expert judiciaire.
Autour de moi, oui - Je ne sais pas, mais à l’instant où tu mets une instance Fediverse ou Matrix en accès libre, tu es concerné-e. Autour de moi, y compris d’autres CHATONS, il y a des gens qui font tourner des instances de Fediverse + Matrix ouvertes : tous-tes ont eu à gérer du contenu d’extrême droite et/ou harcèlement sexuel. Je crois que des contenus bien plus horrible et répréhensibles ont également du être modérés. J’aimerais bien qu’ils et elles s’expriment sur ce sujet, mais je ne peux pas le faire à leur place. On a aussi eu à gérer des situations peu graves mais où il avait un besoin d’intervention, mais sans cadre, ça a été vécu difficilement par tout le monde. Donc vraiment, on a toute la palette : du plus horrible à la personne casse-pied.
Le Fediverse complique la tâche - Prenons l’exemple de notre instance Plume : elle est fermée aux inscriptions (il faut être coopté), pourtant, pendant longtemps, sur notre page d’accueil, on avait des textes en cyrilliques qui parlaient de la guerre en Ukraine, des scams d’escort en Inde, etc. Ça vient du fonctionnement vraiment pas intuitif de ces logiciels fédérés, qui n’est d’ailleurs pas toujours le même. Pour nous, c’est que Plume a une particularité dans son code qui fait que, il suffit qu’une personne distante suive un compte quelconque de l’instance pour que son contenu se retrouve en page d’accueil. Bref, on se retrouve à modérer du contenu d’autres instances au final. J’explique plus loin comment on a résolu le problème.
Risque psychologiques - Que ce soit par l’accumulation de contenu très dur ou l’impression que ça n’en fini jamais, cette tâche de modération, cette activité peut avoir des effets franchement néfastes sur nos vies.
Je remets mon documentaire du dessus, mais le témoignage des modérateur-ices de Facebook est important, à force de se manger ce contenu toute la journée, ils finissent avec des problèmes psy qui leur empêchent même de reprendre un quelconque autre travail, de dormir la nuit, etc. : https://www.youtube.com/watch?v=DnoH7nYkLZo
Même à une dose moins importante, ça peut sérieusement affecter, je prends pour exemple un article de blog de l’expert judiciaire Zythom où il parlait de l’horreur et l’effroi que ça lui inspirait de devoir extraire pour la justice ces contenus illégaux, le texte laissait penser à une certaine détresse… (Pas de lien volontairement).
(la troisième partie de mon message sera pour plus tard…)
(Petit laïus sur l’identité numérique)
@stephane, @ljf, j’avais volontairement mis ce sujet de côté dans cette discussion parce que je me sens « moins à l’aise » dessus pour le moment, mais oui je pense que l’UE pense résoudre les problèmes de modération, non pas seulement avec du machine learning, mais avec une « inflation des contrôles d’identité ».
J’ai très rapidement suivi Alicem et France Identité Numérique https://www.zdnet.fr/actualites/france-identite-numerique-veut-faire-oublier-alicem-39941353.htm , mais j’ai le sentiment que la question est plus large et que la substance du projet est bien capturé par la vidéo promotionnelle « Digital ID Wallet » de Thales : https://www.youtube.com/watch?v=YSb0nLRte_A . La première réaction c’est de ne pas trop la prendre au sérieux, mais je pense qu’elle reflète bien l’ambiance chez le pouvoir politique et les grandes entreprises. D’ailleurs, si Thales est une boite européenne, il faut vraiment le voir comme une démarche mondiale, en témoigne le projet « Trust Over IP » de la Linux Foundation : https://trustoverip.org/
Ce que je retiens de cette démarche de pensée globale c’est : 1. enfin avoir un système bon marché pour contrôler l’état civil sur Internet, et donc pouvoir l’imposer plus largement (exemple de la politique du « vrai » nom de Facebook, d’avantage abandonnée pour des raisons économiques que politiques) et 2. pouvoir aussi étendre le nombre et la finesse des contrôles sur les gens dans la rue, dans les lieux de loisirs, lors des manifestations. On voit que le projet de ce système, c’est plus qu’une carte d’identité, mais aussi un passeport, un permis de conduire, une preuve pour nos diplômes, etc.
D’un côté on a évoqué la France, de l’autre le monde entier en général, il y a surtout beaucoup de choses qui semblent se passer au niveau européen, dans le cadre du règlement eIDAS - https://digital-strategy.ec.europa.eu/fr/policies/discover-eidas . La première itération semble dater de 2016 avec des signatures électroniques entre autre, mais la version « 2.0 » a l’air d’être prévue pour fin 2022. Dedans, est prévu l’arrivée des EDIW, European Digital ID Wallet, avec… badamtsou, Thales derrière, of course ! https://www.silicon.fr/avis-expert/eidas-2-0-que-sait-on-de-la-nouvelle-reglementation-sur-lidentification-electronique . Et avec le projet de couvrir 80% des européen-nes d’ici 2030.
Il y a des ONG allemandes qui travaillent sur cette question, à l’image de Epicenter.works : https://en.epicenter.works/content/orwells-wallet-european-electronic-identity-system-leads-us-straight-into-surveillance , qui semble très bien maîtriser le sujet et que j’ai eu la chance d’entendre à Freedom Not Fear. En parallèle de ça, j’ai rapidement échangé avec une représentante du CCC sur la question, qui pense que les Digital Wallet / Self-sovereign Identtity sont une bonnes choses mais que le projet de l’UE est pas bon, mais qu’ils travaillent, eux, à en faire une implémentation libre où les gouvernements ne seront pas les seuls à pouvoir délivrer des « certificats d’identité ». Ma question était : oui, mais si seul l’identité des gouvernements est reconnue par les entreprises qui sont nécessaires à ma survie (manger, dormir, etc.), et que si elles exigent non pas le minimum nécessaire mais tout un tas de truc, quelle est l’intérêt de leur techno ? quelle serait ma capacité à m’opposer ? Pas eu de réponse…
Alors après on peut continuer dans le trou noir du désespoir, avec QWACS, un dispositif de eIDAS toujours. De ce que j’en comprends, c’est que ce serait une invasion de l’UE dans la gestion des certificats racines. Aujourd’hui, TLS est protégé grâce à un ensemble de certificats racines, qui est audité par je ne sais trop quelle structure gérée par les concepteurs de navigateurs, qui se réservent le droit d’en exclure si ils ne respectent pas les règles. Avec QWACS, l’UE voudrait forcer les navigateurs à intégrer son certificat racine dans les navigateurs, sans avoir à rendre des comptes sur les certificats qu’ils générent. Donc potentiellement, si c’est fait n’importe comment, c’est des grosses fuites de données à prévoir, et potentiellement aussi de l’interception facilitée pour les gouvernements…
Le billet de l’EFF : https://www.eff.org/fr/deeplinks/2022/02/what-duck-why-eu-proposal-require-qwacs-will-hurt-internet-security
Le billet de Mozilla : https://blog.mozilla.org/en/security/mozilla-eff-cybersecurity-experts-publish-letter-on-dangers-of-article-452-eidas-regulation/
La campagne de Mozilla contre QWACS : https://securityriskahead.eu/
Et donc l’EDIW + QWACS ce ne sont que deux dispositions de eIDAS 2.0, il y en avait 8 ou 10 présentées pendant Freedom Not Fear, je ne me souviens plus des autres.
Bref, juste pour souligner que se contenter d’une stratégie d’opposition ne peut pas marcher à mon sens : le temps de s’opposer à une disposition, il y en a 20 qui seront passées. Et la disposition à laquelle on s’est opposée sera passée sous une autre forme 2 ans plus tard… Ce séjour à Bruxelles m’a aussi fait m’interroger aux limites qu’on peut avoir dans nos actions : jusqu’à quand c’est pertinent de mettre de l’énergie dans Internet. Est-ce qu’on ne serait pas en train de vivre la mise au pas du réseau, comme avec la presse en son temps, ou les radios pirates/libres, qui n’existent pour ainsi dire plus… Allez, à deux doigts de citer l’utopie déchue de Felix Treguer…
Mais je m’éloigne du sujet de départ : « modération et conditions d’utilisation ». À mon sens, on peut partir de ces (projets) de loi et se demander : pourquoi sont ils un temps soit peu acceptable ? Peut etre un bout de réponse : parce qu’il y a une vraie critique de fond à faire sur comment on s’organise sur Internet, modération incluse. Barlow dans sa déclaration d’indépendance du Cyberespace disait :
Lorsque de véritables conflits se produiront, lorsque des erreurs seront commises, nous les identifierons et nous les réglerons par nos propres moyens. Nous établissons notre propre contrat social. L’autorité y sera définie selon les conditions de notre monde et non du vôtre. Notre monde est différent.
Définir notre propre contrat social. Voilà une belle promesse, mais j’ai du mal à voir comment elle a pu se concrétiser. Et pourtant c’était un sujet sérieux, comme je le disais plus haut, les questions de harcèlement & co existent vraiment sur Internet, et ça agace les gens. La fondation Trust over IP vend sa techno sur la peur de la fraude. Les politiques critiquent en permanence l’anonymat sur Internet, même si il n’existe pas. En résumé, ces lois sécuritaires me semblent audibles parce qu’on a un problème, perçu ou réel j’insiste, et qu’on a aucun modèle désirable, une proposition positive, à y apporter.
@quentin Wow, merci pour ton message détaillé. Tu as tout compris, je crois ;_)
Il peut être facile de rejeter l’argument de Kate en disant que ce qu’elle pointe est déjà interdit par la loi. Je pense, au contraire, que l’on doit s’en saisir car il y a aujourd’hui une déconnexion, perçue ou réelle, entre la loi et les pratiques.
Merci.
Il peut être facile de rejeter l’argument de Kate en disant que ce qu’elle pointe est déjà interdit par la loi. Je pense, au contraire, que l’on doit s’en saisir car il y a aujourd’hui une déconnexion, perçue ou réelle, entre la loi et les pratiques.
Je le vois aussi tous les jours.
En regard de la charte - Une partie de la charte faisait écho avec cette inquiétude : un CHATONS ne doit collaborer avec les autorités que si une requête légale en bonne et due forme est fournie. Kate craint que d’adopter cette position en cas de revenge porn par exemple puisse nuire aux victimes, car le contenu aura été largement diffusé sur de nombreuses instances avant qu’une quelconque action ne soit prise. Une personne fait remarquer que c’est aussi au CHATONS de définir ses règles dans les Conditions Générales d’Utilisations (CGU, TOS in english).
Tu l’as bien compris. De même, Revenge Porn n’est qu’un petit exemple parmi d’autres. Nous devons également garder à l’esprit que si le problème est « résolu », c’est-à-dire que les gens ne prennent plus d’images d’autres personnes à leur insu et sans autorisation ou ne les copient pas « n’importe où » sur le web et contribuent ainsi à faire du mal à quelqu’un d’autre (nous devons malheureusement garder à l’esprit que de nombreux pays travaillent fortement sur les moteurs de recherche de visages et que le réveil peut alors être brutal et que tout le monde ne pourra pas le supporter, et c’est là que nous devons agir et éduquer), nous aurons toujours le problème de la « protection des mineurs ». Supposons donc que nous n’ayons plus que des personnes qui partagent leur propre contenu (par ex. de nature sexuelle), Chaton veut-il promouvoir des instances qui ne sont pas adaptées à de nombreux enfants et adolescents ?
Aborder la question à notre niveau : mobiliser les utilisateur-ices - Un autre aspect de mes valeurs, c’est que je penche plus vers le collectif et l’autonomie que vers l’individu et la servitude volontaire. J’aimerais donc que la modération soit l’affaire de toutes et tous.
Exactement. Mais alors, il faudrait que tout le monde modère. La question est de savoir si tout le monde le fait ou veut le faire ? Je remarque que beaucoup de gens ne signalent pas les choses qui les dérangent ou qu’ils découvrent, même s’il suffit d’appuyer sur un simple bouton. Je ne sais pas pourquoi. Peut-être que c’est quand même trop stressant pour eux, trop de responsabilités. D’un autre côté, je remarque, comme l’a déjà dit @quentin, que les modérateurs ne réagissent pas non plus - peut-être que les utilisateurs ont déjà abandonné. Je ne sais pas.
Je crois que ag3m aborde d’autres points dans sa vidéo mais je ne m’en souviens plus. Au reste, des expériences fonctionnelles de modération communautaires, il y en a eu pas mal. On pourrait citer Wikipedia et OpenStreetMap, après tout, quoi de plus sensible et politique que 1) une encyclopédie qui détient le savoir et 2) une carte qui délimite le monde, ça devrait donc être ingérable ? Pourtant, ces communautés ont su mettre en place une gestion interne sans avoir à « demander à être régulé » (« la situation est intenable, c’est du à un cadre législatif inadapté, on pourrait adopter cette loi qui nous déresponsabilise complètement au prix des libertés civiles »), et on su résister à des pressions extérieurs et crises fortes (les agences de relations publiques pour Wikipedia, une entreprise Indienne qui voulait prendre le contrôle pour OpenStreetMap).
Mais Wikipedia ne fonctionne plus aussi bien. Récemment, j’ai dû faire des recherches sur un sujet que j’avais déjà lu dans plusieurs livres et je voulais juste vérifier quelque chose rapidement, mais j’ai constaté que certains points qui auraient été importants pour une image complète avaient été omis. J’ai constaté cela à plusieurs reprises dans d’autres articles (pas dans tous les articles, seulement dans certains - il y en a peut-être plus, mais alors je ne l’ai pas constaté en raison de mes faibles connaissances sur le sujet). Suite à cela, j’ai fait quelques recherches et j’ai malheureusement trouvé quelques articles qui confirmaient ce que je soupçonnais :
https://nypost.com/2021/07/16/wikipedia-co-founder-says-site-is-now-propaganda-for-left-leaning-establishment/
https://www.gutefrage.net/frage/deutsche-wikipedia-links
https://www.gutefrage.net/frage/ist-wikipedia-links
(mais le contenu de gutefrage.de n’est pas toujours très bien documenté - pour le NY Times, je verrais les choses un peu différemment)
Ce n’est donc probablement pas le meilleur exemple pour le moment, car lorsque je m’informe sur quelque chose, je veux être sûr d’obtenir toutes les informations importantes et pas seulement celles qui correspondent à une vision du monde. En principe, je trouve aussi que l’approche de Wikipédia est bonne et, la plupart du temps, j’ai toujours trouvé que c’était une bonne source.
Par exemple Je suis un défenseur de la vie privée. Supposons qu’il existe un produit qui aurait par exemple des avantages positifs pour la société, mais qui présente quelques difficultés techniques. Il serait alors tout aussi erroné d’omettre complètement les avantages positifs pour la société, car cela donnerait une fausse image du produit. L’idée serait bonne, mais la mise en œuvre ne l’est tout simplement pas encore.
Je peux donc calculer un score de confiance, depuis ma position (et donc qui n’est pas global, c’est pas un credit score) pour n’importe quel compte du réseau.
Un réseau de confiance est une bonne idée. Mais comment l’implémenter sur Mastodon ? Pour cela, il faudrait modifier le code.
Ça peut aussi être des brochures qu’on créer et qu’on partage pendant les permanences et ailleurs ?
Je connais des personnes qui peuvent concevoir de très belles brochures.
Je suis désolé, il me faudra toujours un peu de temps pour répondre. Ce n’est pas ma langue maternelle
Oh, alors il faudrait peut-être reformuler un peu les choses, s’il y a des risques de confusion ?
Il s’agit en effet de matériel qui n’est pas le sien. Si quelqu’un veut diffuser son propre matériel, il peut le faire. Mais il faut alors veiller à ce que les enfants et les adolescents soient protégés en conséquence.
Merci @kate pour tes retours, je suis content qu’on se comprenne sur le sujet
Si le français est trop compliqué à suivre, je veux bien rajouter une traduction en anglais de mes messages. Ich würde gern auf Deutsch übersetzen aber ich habe nicht die Fähigkeiten…
Mes réponses à Kate
Wikipedia + Implication de la communauté - De plus, j’ai bien noté tes doutes sur le fonctionnement de Wikipedia. Je note aussi tes questions sur l’implication d’une communauté dans la modération : comment impliquer d’avantage les gens alors qu’ils et elles ne signalent déjà pas toujours le contenu. Pour ces deux points, je pense avoir des éléments à apporter mais je dois retrouver mes sources, je répondrai donc dans un futur message !
Modifier le code de nos logiciels - Pour la question du code, c’est facile à dire pour moi qui suis informaticien, mais je pense que ce n’est pas un horizon indépassable. En réalité, il y a déjà beaucoup de personnes qui ont voulu rajouter des outils de modération dans Mastodon mais ça a été refusé par les maintainers, autrement dit les « chefs »…
C’est pourquoi je pense que les gens qui s’intéressent au sujet de la modération doivent se parler : developers, activists, researchers, etc. pour imaginer quelque chose de cohérent, et une fois que le ou la developer propose une modification, cette personne soit soutenue par une communauté importante lors des échanges sur Github. Pour le dire sans détour : engager un rapport de force. Et quand bien même on échouerait, il est possible de maintenir un fork avec les outils qu’on a créé. À Deuxfleurs, on maintient un (petit) fork pour un grand nombre de nos outils : cryptpad, jitsi, plume, etc.
À qui on s’adresse ? - Enfin, je pense que tu abordes une questions épineuse quand tu dis :
En élargissant un peu cette question, je me demande si ce n’est tout simplement pas : « À qui s’adresse le collectif ? À qui s’adresse mon hébergeur ? Comment je le communique ? ». Bien sûr, c’est lié avec d’autres questions que se posent le collectif. Un des sujets c’est, par exemple, de mettre des labels : un label écologie, un label commercial, etc. On peut imaginer un label « enfant » ou « familles » dans cette perspective. D’ailleurs je dis label, mais ça pourrait être des tags dans les fiches d’hébergement, et là on revient doucement sur mon exemple AO3 ! En parallèle de ça, il se pose des questions sur le site web du collectif, et plus particulièrement les outils qu’il met à disposition pour trouver un hébergeur : aujourd’hui on cherche en partant de la technique ou de la localisation géographique, mais il semblerait que ce n’est pas comme ça que les utilisateurs du site pensent, souvent ils viennent d’avantage avec un « besoin ». Par exemple : j’ai besoin d’outils de collaboration pour mon organisation. C’est discuté dans un fil dédié : https://forum.chatons.org/t/groupe-de-travail-tests-utilisateurs-utilisatrices-site-chatons-org/4036 .
Mais si on recentre le sujet sur la modération, je pense qu’une question qu’il peut y avoir c’est : « Dans quel espace j’arrive ? Quelles sont ses règles ? Quels sujets je risque de voir ? Quels sujets ne seront pas les bienvenus ? Est-ce que je vais me mettre en danger si je dis X ou Y ? ». Ce qui me fait arriver au dernier point que je voulais aborder (et promis après j’arrête d’écrire des énormes messages).
La modération pour créer un espace chaleureux
C’est la conclusion à laquelle je suis arrivé après plusieurs échanges : des règles et des pratiques de modération doivent exister et être documentées pour qu’un espace puisse être perçu comme chaleureux, et que des personnes aient envie de les investir et y participer. Même si on parle de faits qui ne sont jamais arrivés, qui n’arriveront jamais, ou tombent sous le coup de la loi. Je vois ça plus comme une déclaration de confiance, de principe, entre le Chatons et ses usagers et usagères.
Si vous me lisez et que vous vous dites « rien de nouveau ici », désolé, chacun chemine à sa vitesse
L’accumulation des questionnements - J’ai un sentiment d’accumulation sur ces questions : en plus de l’actualité juridique, tu es venue spontanément aborder ce sujet @kate. Avant toi, il a été abordé par @AlPog . ElizaFox, citée par AlPog, en a écrit un billet complet. @audrey travaille dessus dans le cadre de sa thèse. Je vois aussi que le sujet a été abordé auparavant par @ljf : https://forum.chatons.org/t/quelles-politiques-de-moderation/1281 et aussi, en parallèle, par @Pouhiou de Framasoft : https://forum.chatons.org/t/lstu-frama-link-et-fachosphere/1279
En interne, lors d’une réunion, on a aussi une membre qui a demandé qu’on établisse ensemble un cadre. Elle disait que, sans le cadre, actuellement, elle ne se sentait pas de prendre la parole dans nos salons de discussion Matrix, de peur de la réception de ses messages, de peur de se faire disqualifier sur le plan technique - même si le sujet était tout autre. De même, dans mon entourage, certaines personnes suivent Twitter assidûment mais se restreignent de participer, de peur de déclencher un shirtstorm ; en d’autres termes, d’aborder un sujet chaud dont l’accumulation des réponses négatives, voire violentes, résulteraient dans une situation de harcèlement.
Le point commun que je vois à tout ces témoignages c’est que la plupart de ces personnes ne se sont jamais retrouvées directement dans les situations qu’elles décrivent. Mais elles les ont observées, et elles ont besoin d’avoir la garantie qu’une telle situation n’arrivera pas, ou en tout cas qu’elles auront un support actif si elle venait à arriver.
L’exemple de l’éthique du care - Durant ces échanges, je me demande si on attendait pas de nous (nous = Deuxfeurs ici) d’avoir en engagement autour d’une certaine éthique du care.
Après tout, Picasoft s’est déjà emparée du sujet. Dans leur article sur le framablog, le « tout-doux » est associé au soin, bref le care. On y retrouve aussi dans leur idée de se préoccuper des autres et de recherche de consensus.
Note : je ne suis pas du tout sûr de mon coup sur la suite. Je n’ai aucune expertise sur ces sujets, n’hésitez pas à corriger / compléter / contredire. J’espère ne pas faire un hors sujet, ni appliquer des notions subtiles trop brutalement au point de les dénaturer ou de faire un contre sens. Voyez ça comme une volonté d’amélioration, d’apporter de la matière au débat !
En regardant rapidement, j’ai trouvé ce texte nommé l’éthique du care, ou en anglais sur Wikipedia. De ce que j’en comprends, ça s’articule autour de 4 points : attention, responsabilité, compétence, capacité de réponse.
Appliqué à Mastodon, ce que j’en comprends, c’est de porter attention aux contenus postés sur nos instances, aux interactions qui ont lieu, écouter le ressenti de nos usagers et usagères et le prendre en compte même si il ne nous touche pas directement. La responsabilité, ce serait d’honorer la confiance qui nous a été accordée par les personnes qui ont rejoint notre instance, de mettre en place des pratiques pour que tout le monde se sente bien. La compétence, ça serait de se lancer que si on est confiant de notre coup, si on a réfléchi en amont aux problèmes et au moyen de les régler, le contraire du move fast and break things, et au final, les usagers et usagères devraient pouvoir s’exprimer sur ce qui fonctionne et ce qui ne fonctionne pas.
Ça peut aussi vouloir dire se détacher de certaines vieilles habitudes, comme cette règle populaire chez les libristes dont j’ai perdu le nom qui se réclame de communiquer « efficacement » en s’affranchissant totalement « des conventions sociales ». L’auteur soulignait bien qu’il fallait l’appliquer uniquement entre personnes consentantes, mais parfois, elle sert à justifier aussi certains comportements qu’on peut avoir.
Le spectre du communautarisme - Avec toutes ces règles, on peut se demander si on ne va pas finir dans un petit groupe de personnes qui partagent les mêmes idées, dans notre bulle de confirmation, que ce serait horrible, qu’on ne pourrait pas faire société, et quid de l’universalisme républicain, et toutes nos belles valeurs de vie en commun (désolé pour l’ironie).
En réalité, si on prend l’exemple de Twitter, il n’est pas du tout universel dans sa modération. L’entreprise confesse elle-même qu’elle favorise la droite. https://www.lemonde.fr/pixels/article/2021/10/22/une-etude-de-twitter-montre-que-son-algorithme-favorise-les-discours-de-droite_6099540_4408996.html. Il y a Gilles Trédan et Erwan Le Merrer qui travaillent sur la modération dans les réseaux sociaux : Twitter, Youtube, etc. et ont montré qu’il y avait des différences statistiquement signifiantes sur la modération en fonction des gens. Vous pourrez trouver des ressources ici par exemple : https://erwanlemerrer.github.io/
Je pense donc que les réseaux sociaux des GAFAM aujourd’hui reproduisent surtout les modèles dominants. C’est aussi ce que dit Jen Schradie, et je pense que c’est aussi une bonne nouvelle : la plupart des problèmes que l’on rencontre ne sont pas d’ordre technique, mais de volonté. Ce n’est pas que les GAFAM soient pour le harcèlement ou le revenge porn, c’est juste que quand il s’agit de hiérarchiser les priorités, ce n’est pas ce qui arrive en haut de la liste, entre autre - mais pas uniquement, parce que les gens qui conçoivent ces services ne sont pas concernés par ces problèmes.
Une tentative de formulation positive - Du coup pour l’instant je n’ai rien trouvé de mieux que cette formulation « d’espace chaleureux », qui permettrait de porter un projet de règles, de modération, mais sur une tonalité positive. Son objectif ça serait de libérer la parole de personnes qui souhaitent s’exprimer mais qui ne le font pas par peur. Ça pourrait être le projet d’un Internet plus démocratique, car plus de personnes se sentiraient légitime à parler. On parlait aussi d’inclusivité, et je pense que poser un cadre qui sorte du modèle dominant, ça peut aussi envoyer un message positif.
That’s all folks sur mes réflexions en vrac, merci pour la lecture, désolé pour la longueur !
C’est vrai que j’arrive à la limite de ma capacité de lecture.
Mais c’est toujours plaisant à lire.
Il y a des risques de confusion. J’ai le sentiment que l’urgence de la réaction prime sur le contrôle par une autorité judiciaire. Le temps de la justice n’est pas le même que celui des réseaux dit «sociaux». Ainsi, il s’installe une forme de légitimité à agir par l’urgence en dehors du contrôle judiciaire.
Peut-être remettre cela est spécifique au contexte Français ? (Je ne connais pas en Allemagne.)
En fait, nous faisons le même constat. Je me suis peut-être mal exprimé. Je n’ai pas dis qu’il ne fallait plus faire d’éducation sexuelle au lycée, mais qu’il était peut-être nécessaire de commencer plus tôt c’est à dire au premier cycle. J’avais fait une petite étude à ce sujet en croisant des données issues de data.education.gouv.fr . Grosso-modo, si dans les textes et les programmes il y a l’intention de faire, dans les faits, ce n’est pas réalisé.
Mes réponses pour Quentin :
Si le français est trop compliqué à suivre, je veux bien rajouter une traduction en anglais de mes messages. Ich würde gern auf Deutsch übersetzen aber ich habe nicht die Fähigkeiten…
Le français, ça va. J’apprends beaucoup en lisant. Si j’écris quelque chose qui n’a absolument aucun sens, dites-le moi, mais je suppose que jusqu’à présent vous avez tout compris.
En élargissant un peu cette question, je me demande si ce n’est tout simplement pas : « À qui s’adresse le collectif ? À qui s’adresse mon hébergeur ? Comment je le communique ? ». Bien sûr, c’est lié avec d’autres questions que se posent le collectif. Un des sujets c’est, par exemple, de mettre des labels : un label écologie, un label commercial, etc. On peut imaginer un label « enfant » ou « familles » dans cette perspective.
Label semble difficile.
On peut en effet avoir plusieurs labels.
Quelqu’un peut aimer le rock, mais être adolescent par exemple, mais aussi aimer le rock quand on est adulte. De même, on peut s’intéresser à la protection de l’environnement quand on a 40 ans ou quand on en a 10.
La modération pour créer un espace chaleureux
J’aime bien cette idée. Ces derniers jours encore, j’ai vu une modération de Mastodon ignorer tout simplement les publicités agressives, le langage agressif et le harcèlement.
De même, dans mon entourage, certaines personnes suivent Twitter assidûment mais se restreignent de participer, de peur de déclencher un shirtstorm ; en d’autres termes, d’aborder un sujet chaud dont l’accumulation des réponses négatives, voire violentes, résulteraient dans une situation de harcèlement.
Je peux le faire. C’est une des raisons pour lesquelles je pense que la webiquette est importante (elle couvre déjà ces sujets).
Le point commun que je vois à tout ces témoignages c’est que la plupart de ces personnes ne se sont jamais retrouvées directement dans les situations qu’elles décrivent. Mais elles les ont observées, et elles ont besoin d’avoir la garantie qu’une telle situation n’arrivera pas, ou en tout cas qu’elles auront un support actif si elle venait à arriver.
J’observe la même chose. C’est particulièrement délicat dans le domaine de la protection des données, où les gens deviennent de plus en plus agressifs, y compris sur Mastodon.
Afin de documenter ce fil sur la directive Chat Control, le parlement Autrichien vient d’adopter une résolution allant contre la régulation SCA de la commission EU.