Le Fediverse n’est pas Twitter, mais peut aller plus loin

Maintenant que Mastodon a suscité l’intérêt d’un certain nombre de migrants de Twitter, il nous semble important de montrer concrètement comment peuvent communiquer entre eux des comptes de Mastodon, PeerTube, Pixelfed et autres… c’est ce que propose Ross Schulman dans ce billet de l’EFF traduit pour vous par Framalang…

 

source : The Breadth of the Fediverse

Traduction Framalang : CLC, Goofy, Henri-Paul

 

L’étendue du Fediverse

par Ross Schulman

Le Washington Post a récemment publié une tribune de Megan McArdle intitulée : « Twitter pourrait être remplacé, mais pas par Mastodon ou d’autres imitateurs ». L’article explique que Mastodon tombe dans le piège habituel des projets open source : élaborer une alternative qui a l’air identique et améliore les choses dont l’utilisateur type n’a rien à faire, tout en manquant des éléments qui ont fait le succès de l’original. L’autrice suggère plutôt que dépasser Twitter demandera quelque chose d’entièrement nouveau, et d’offrir aux masses quelque chose qu’elles ne savaient même pas qu’elles le désiraient.

Nous pensons, contrairement à Megan, que Mastodon (qui fait partie intégrante du Fediverse) offre en réalité tout cela, car c’est un réseau social véritablement interopérable et portable. Considérer que Mastodon est un simple clone de Twitter revient à oublier que le Fediverse est capable d’être ou de devenir la plate-forme sociale dont vous rêvez. C’est toute la puissance des protocoles. Le Fediverse dans son ensemble est un site de micro-blogging, qui permet de partager des photos, des vidéos, des listes de livres, des lectures en cours, et bien plus encore.

Comme beaucoup de gens se font, comme Megan, une fausse idée sur le Fediverse, et comme une image vaut mieux qu’un long discours, voyons comment l’univers plus large d’ActivityPub fonctionne dans la pratique.

Parlons de PeerTube. Il s’agit d’un système d’hébergement de vidéos, grâce auquel les internautes peuvent en suivre d’autres, télécharger des vidéos, les commenter et les « liker ».
Voici par exemple la page de la chaîne principale du projet open source Blender et c’est là que vous pouvez vous abonner à la chaîne…

fenêtre dans la page de peertube.tv où l'on peut s'abonner au canal blender en utilisant son compte activityPub, ici un compte de mastodon

Dans cet exemple nous avons créé un compte Mastodon sur l’instance (le serveur) framapiaf.org. Une fois qu’on clique sur « S’abonner à distance », nous allons sur le compte Mastodon, à partir duquel il nous suffit de cliquer sur « Suivre » pour nous permettre de…suivre depuis Mastodon le compte du PeerTube de Blender.

fenêtre de mastodon dans laquelle on peut confirmer vouloir suivre un canal peertube (de Blender dans cet exemple) en cliquant sur "Suivre"

Maintenant, dès que Blender met en ligne une nouvelle vidéo avec PeerTube, la mise à jour s’effectue dans le fil de Mastodon, à partir duquel nous pouvons « liker » (avec une icône d’étoile « ajouter aux favoris ») la vidéo et publier un commentaire.

… de sorte que le « like » et la réponse apparaissent sans problème sur la page de la vidéo.

un commentaire-réponse posté sur mastodon apparaît sur le canal peertube

Pixelfed est un autre service basé sur ActivityPub prenant la forme d’un réseau social de partage de photographies. Voici la page d’accueil de Dan Supernault, le principal développeur.

On peut le suivre depuis notre compte, comme nous venons de le faire avec la page PeerTube de Blender ci-dessus, mais on peut aussi le retrouver directement depuis notre compte Mastodon si nous connaissons son nom d’utilisateur.

capture : après recherche du nom d’utilisateur « dansup », mastodon retrouve le compte pixelfed recherché

Tout comme avec PeerTube, une fois que nous suivons le compte de Dan, ses images apparaîtront dans Mastodon, et les « likes » et les commentaires apparaîtront aussi dans Pixelfed.

capture d'écran montrant une photo du chat de Dansup publiée sur pixelfed mais qui s'affiche ici sur le compte mastodon que l'on "suit".

Voilà seulement quelques exemples de la façon dont des protocoles communs, et ActivityPub en particulier, permettent d’innover en termes de médias sociaux, Dans le Fediverse existent aussi BookWyrm, une plateforme sociale pour partager les lectures, FunkWhale, un service de diffusion et partage de musique ainsi que WriteFreely, qui permet de tenir des blogs plus étendus, pour ne mentionner que ceux-là.

Ce que garantit le Fediverse, c’est que tous ces éléments interagissent de la façon dont quelqu’un veut les voir. Si j’aime Mastodon, je peux toujours y voir des images de Pixelfed même si elles sont mieux affichées dans Pixelfed. Mieux encore, mes commentaires s’afficheront dans Pixelfed sous la forme attendue.

Les personnes qui ont migré de Twitter ont tendance à penser que c’est un remplaçant de Twitter pour des raisons évidentes, et donc elles utilisent Mastodon (ou peut-être micro.blog), mais ce n’est qu’une partie de son potentiel. La question n’est pas celle du remplacement de Twitter, mais de savoir si ce protocole peut se substituer aux autres plateformes dans notre activité sur la toile. S’il continue sur sa lancée, le Fediverse pourrait devenir un nouveau nœud de relations sociales sur la toile, qui engloberait d’autres systèmes comme Tumblr ou Medium et autres retardataires.

 




L’aventure de la modération – épisode 5 (et dernier ?)

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le cinquième. Le dernier, pour l’instant.

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération
– Chapitre 4 : Bilan

 

Pour conclure cette série de textes sur la modération, et maintenant que j’ai grandement détaillé comment il est possible, sur Mastodon, d’avoir une modération qui fait le taf, je voulais revenir sur pourquoi, à mon avis, il est impossible pour les grandes entreprises capitalistes de faire correctement de la modération (et pourquoi ça ne sert à rien de leur demander de faire mieux !).

 

C’est le cœur de cette série car je suis très frustrée de voir systématiquement une bonne analyse faite sur les problèmes des outils, qui se casse la figure au moment d’évoquer les solutions. Alors c’est parti !

 

N.B. : je fais cette analyse sans considérer qui est le PDG au moment où je publie car je pense que ça ne change pas grand chose sur le fond, au pire le nouveau sera plus transparent sur sa (non-)politique de modération.

 

Twitter ne fera pas mieux car…

Twitter ne veut pas dépenser d’argent pour construire des équipes de modération

 

Vous le savez sans doute, c’est passé dans de nombreux articles comme celui de Numérama : Twitter assume n’avoir quasiment pas de modérateurs humains

Twitter emploie 1 867 modérateurs dans le monde.

 

Pour 400 millions d’utilisateurices, ça fait 1 modérateurice pour 200 000 comptes. Donc évidemment la modération ne peut pas être suffisante et encore, on ne sait pas comment les effectifs de modération sont répartis selon les langues. Il est évident qu’il est extrêmement difficile de modérer, alors modérer dans une langue qu’on ne maitrise pas c’est mission impossible !

 

Je rajoute rapidement qu’en plus, contrairement à ce que j’évoquais dans mes articles précédents sur « comment prendre soin » et construire un collectif de modération, il n’y a absolument aucune notion de soin et de collectif lorsque l’on est modérateurice chez Twitter. Il y a au contraire des conditions de travail délétères qui amplifient le problème : interdiction de parler à ses collègues, de raconter à l’extérieur ce à quoi on a été confronté, pression temporelle intense donc pas possible de récupérer après un moment violent.

 

Bref, Twitter veut économiser de l’argent, et le fait notamment sur le dos de ses modérateurices qui sont envoyées au massacre psychologique de la modération, et donc au détriment de ses utilisateurices les plus fragiles.

 

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Twitter préfère les robots

Face aux critiques qui lui sont faites, Twitter répond qu’il compte sur l’automatisation des robots pour faire ce travail pénible.

Je pense que cette posture ne tient pas pour plusieurs raisons :
1. C’est technosolutionniste que de penser que des robots peuvent répondre à un problème social (et donc à mon avis voué à l’échec).

2. Les robots sont alimentés par ce que nous leur donnons, et donc remplis de biais qu’ils vont répercuter dans leur politique de modération. Dans un collectif de modérateurices, ces biais sont atténués par les débats et discussions. Je ne crois pas que les robots soient très portés sur la discussion de ce qui est juste ou non.

3. Le contexte est primordial en modération, et un robot ne peut pas être assez « intelligent » pour comprendre ce contexte. Pour exactement le même contenu, selon d’où parle la personne, la réponse de modération ne sera pas la même. Vous imaginez bien qu’entre une femme qui dit subir du sexisme ou un homme, on n’est pas sur la même action à réaliser, l’une subit une oppression systémique tandis que l’autre récupère maladroitement ou stratégiquement un mot en le détournant.

 

Les robots ne sont donc pas une solution sur laquelle on peut compter, mais sont une bonne façon de détourner la discussion du sujet « Pourquoi n’avez-vous pas plus de modérateurices ? ». Il vaut mieux répondre « Le boulot est trop ingrat, on préfère que se soit des robots, on les améliore chaque jour » plutôt que « on ne veut pas mettre d’argent à payer des modérateurices et puis quoi encore ? ». (Quoique en ce moment, il y a une bonne clarification des postes considérés comme utiles chez Twitter, et la modération n’en fait pas partie !).

 

On pourra me dire : «oui mais un robot, c’est fiable car ça prend toujours les mêmes décisions !»

Et c’est peut-être vrai, mais pourquoi avons-nous besoin d’une modération qui ne bouge pas dans le temps ? Comment s’améliorer, comment faire évoluer nos pratiques si toute la connaissance est refilée aux robots ?

 

Nous avons besoin de remettre de l’humain dans nos médias sociaux, et déléguer aux robots ne fait que contourner le problème.

 

Twitter a besoin que les gens soient blessés

 

Enfin, de par le fonctionnement même de Twitter, le réseau social a besoin pour son modèle économique de gens qui souffrent, qui sont malheureux, blessés, en colère, pour gagner plus d’argent.

 

C’est le principe de l’économie de l’attention : plus vous restez sur un média social, plus vous partagez vos données, regardez des pubs, interagissez et faites rester les autres.

 

Et pour vous faire rester, rien de tel que de vous confronter à ce qui vous énerve, ce qui vous fait vous sentir mal, ce qui vous fait réagir.

 

Pour cela, les comptes d’extrême-droite sont de l’or en barre : ils passent leur temps à dire des saloperies, et à un moment l’une d’elle va forcément vous toucher plus particulièrement qu’une autre, soit parce que vous êtes concerné·e, soit parce que quelqu’un de votre entourage l’est.

 

Ensuite on cite le tweet concerné en disant qu’il faut surtout pas écouter ce genre de personne, on déconstruit l’argumentaire en un fil de huit tweets, tout cela augmente la visibilité du contenu initial et donc d’idées d’extrême-droite, personne n’a changé d’avis à la fin mais vous vous sentez sans doute encore moins bien qu’au début, ou plus énervé·e… et chouette pour Twitter, parce qu’être en colère ou triste ça rend davantage sensible à la publicité.

 

Vous l’aurez compris, il y a donc par nature un problème de fond : si Twitter vire tous les comptes d’extrême-droite, son chiffre d’affaire va chuter. Alors il peut promettre la main sur le cœur qu’il compte le faire, les yeux dans les yeux, et vous avez le droit de le croire.

 

Pour moi les résultats sont là, rien ne se passe, et il n’y a pas de raison que ça s’arrange avec le temps (au contraire !).

 

Oui mais… et la violence à laquelle sont soumis les modérateurices dans tout ça ?

 

Les entreprises capitalistes du numérique entretiennent savamment la croyance que puisqu’il y a de la violence dans le monde, il n’y a rien à faire, quelqu’un doit bien se farcir le taf ingrat de subir cette violence transposée sur les réseaux sociaux, et ces personnes, ce sont les modérateurices.

 

Je ne suis pas d’accord.

 

Je pense que nous pouvons collectivement améliorer de beaucoup la situation en priorisant des technologies qui prennent soin des humains, et qu’il est immoral de perpétuellement déléguer le travail de soin (des enfants, de la maison, des espaces en ligne) à des personnes qui sont toujours plus mal payées, plus précaires, plus minorées, à l’autre bout du monde…

 

Nous pouvons avoir des réseaux qui fonctionnent correctement, mes articles sur Mastodon en font l’exemple.

 

Est-ce que c’est parfait ? Non, mais au moins, la modération est gérée à petite échelle, sans la déléguer à des personnes inconnues qu’on rémunère de façon honteuse pour faire le « sale travail » en leur détruisant la santé.

 

Et si à terme Mastodon grossit tellement qu’il sera soumis aux contenus les plus atroces, et que cela rendra la modération impossible ou complètement délétère pour les modérateurices, eh bien il sera temps de l’améliorer ou de tout fermer. Parce que nous pouvons aussi faire le choix de ne pas utiliser un outil qui abime certain·es d’entre nous plutôt que de fermer les yeux sur cette violence.

 

Peut-être que le fonctionnement fondamental des réseaux sociaux a finalement des effets délétères intrinsèques, mais pourquoi se limiter à ça ? Pourquoi ne pas discuter collectivement de comment faire mieux ?

 

Et sur un autre registre, il est aussi possible de mettre de l’énergie en dehors de la technologie, sur un retour à plus de démocratie, plus de débat apaisé. Parce que peut-être que si chacun·e retrouve une confiance sur le fait que son avis et ses besoins seront entendus, il sera possible de retrouver collectivement plus de sérénité, et cela se ressentira sûrement dans nos interactions numériques.

 

Un autre monde (numérique) est possible, il nous reste à le construire, pour contribuer à une société empreinte de justice sociale où le numérique permet aux humain·es de s’émanciper, à contre-courant des imaginaires du capitalisme (de surveillance).

 

« Mastodon, c’est chouette » sur Grise Bouille, par @gee@framapiaf.org
https://grisebouille.net/mastodon-cest-chouette




L’aventure de la modération – épisode 4

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le quatrième.

Alors maintenant que je vous ai dit tout ça, faisons un petit bilan des avantages et surtout des limites de ce système !

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Les avantages

Je vais être courte parce que mon point n’est pas ici d’encenser Mastodon, donc je ne creuserai pas trop les avantages. Cependant je ne peux pas m’empêcher de remettre en avant deux points majeurs :

Indéniablement, on bloque très vite les fachos. C’est quand même, à mon avis, le grand intérêt, qui n’est pas assez connu au-delà de Mastodon. De ce fait nous avons une exigence collective très faible par rapport à la modération : quand Twitter annonce qu’il ne peut pas faire mieux, on le croit sur parole alors qu’une alternative sans moyens d’envergure y arrive… Journalistes spécialisés si vous lisez ce message !

 

Ensuite, le fonctionnement est beaucoup plus démocratique car : ce sont des humains que vous choisissez qui font la modération. Et ça, ça change beaucoup de choses. Déjà parce qu’on est dans un fonctionnement beaucoup plus… artisanal de la modération, donc potentiellement avec plus de proximité, dans l’idéal on peut discuter / appeler à l’aide ses modérateurices… et même selon les endroits, proposer de participer à la modération et ça, ça compte pour se rendre compte du boulot que c’est, et participer aux décisions importantes !

 

Les limites

 

Comme rien n’est parfait, et que nous sommes sur une alternative qui évolue tout le temps, quelques points qui restent des limites malgré le modèle anti-capitaliste de Mastodon.

 

Temps de traitement d’un signalement

 

Il y a un difficile équilibre entre le temps de traitement d’un signalement et le temps d’entendre plusieurs avis du collectif de modération. Je pense qu’il est sain de prendre le temps, mais il y a des situations où l’un·e des modérateurices peut considérer qu’il y a « urgence » et dans ce cas, attendre 48h c’est beaucoup (pour protéger une personne par exemple). C’est un point que nous n’avons pas encore creusé à Framasoft (comment gérer le dilemme rapidité d’action vs. disponibilité du collectif), mais que je me note de rajouter en discussion pour nos prochaines retrouvailles !

 

Encore une fois je parle là des cas difficiles à départager. Si il s’agit de pédopornographie, les salariés de Framasoft sont déjà habitués à devoir réagir rapidement pour supprimer le contenu, donc je ne traite pas ce sujet ici car il n’est pas spécifique.

 

Beaucoup d’utilisateurices, beaucoup de problèmes

Framasoft est une association très connue, et nos utilisateurices nous choisissent souvent car iels ont confiance en nous (merci !).

Mais cela entraine une responsabilité compliquée à gérer : plus de monde chez nous, ça nous fait plus de travail, de modération notamment.

 

Aussi, dans un cadre plus large qui était celui de la déframasoftisation d’Internet, nous avons fermé les inscriptions, ce qui nous a permis d’alléger la charge de notre coté.

 

Et comme tous les Mastodon sont interconnectés, il est possible d’aller s’inscrire ailleurs pour suivre ce qui se passe chez nous, donc c’est un fonctionnement technique qui nous permet de mieux vivre le travail de modération… youpi !

 

Éviter la « spécialisation » des modérateurices

 

Lors de la mise en place d’une équipe de modération à Framasoft, il a fallu faire un petit temps de formation-découverte à l’interface de modération de Mastodon.

 

Or on a vu apparaitre assez rapidement une « spécialisation » entre celleux qui « savaient » utiliser l’interface, et celleux qui n’osaient pas car ne « savaient pas » l’utiliser.

 

Pourtant il y a beaucoup de valeur à ce que la connaissance autour des outils circule auprès de tou·tes celleux que cela peut intéresser :
— Pour qu’il y ait de plus en plus de modérateurices, ce qui répartit le temps dédié à la modération,
— Pour que la discussion soit ouverte à des personnes qui n’ont pas la tête plongée dans la modération, ça permet d’entendre d’autres paroles, c’est appréciable.

 

Pour résoudre ce problème, nous avons organisé des visios de modération !

C’est une pratique que nous avons dans ma coopérative : faire des tâches chiantes, c’est quand même bien plus sympa ensemble !

Alors quand l’un de nous disait « bon, là, il y a quand même beaucoup de signalements qui s’accumulent » je répondais parfois « ça vous dit on fait une visio pour les traiter ensemble ?! »

 

Nous n’avions pas besoin d’être beaucoup, à 2, 3 ou 4 c’était déjà bien plus sympa, même les contenus agressifs sont plus faciles à traiter quand les copains sont là pour faire des blagues ou râler avec toi ! Nous lancions un partage d’écran, idéalement d’une personne pas hyper à l’aise pour l’accompagner, et nous traitions les signalements.

 

Autre effet bénéfique : la boucle de « je demande leur avis aux copaines, j’attends, je traite le signalement » est raccourcie car nous pouvons collectivement débattre en direct du problème. C’est vraiment une façon très sympa de faire de la modération !

 

Les « On va voir » et autres « On peut pas savoir »

 

Enfin, si tout cela est possible actuellement, une part de moi me demande si ce n’est pas dû au fait que Mastodon passe encore « sous les radars ».

C’est un sentiment que j’ai tendance à minimiser vu que cela ne nous a pas empêché d’avoir des hordes de comptes d’extrêmes droites qui se ramenaient. Donc une part de moi pense que le réseau (qui a déjà six ans donc on est loin du petit truc tout nouveau qui a six mois) a un fonctionnement déjà résilient.

Et une autre partie de moi sait qu’elle n’est pas voyante, donc on verra bien dans le futur !

 

Par contre je voudrais insister sur le fait qu’on ne peut pas savoir. Tous les articles qui vous expliqueront que Mastodon ne peut pas fonctionner parce que « intégrer un argument d’autorité sur le fait que ce n’est pas assez gros » ne sont pas mieux au courant que les utilisateurices et administrateurices depuis des années. Et je n’ai pour l’instant vu aucun argument pertinent qui aurait tendance à montrer que le réseau et ses modérateurices ne peut pas supporter une taille critique.

 

Comme d’hab, le secret : il faut prendre soin

 

Cette conclusion ne va étonner personne : La solution pour une bonne modération, c’est de prendre soin.

 

Prendre soin des utilisateurices en n’encourageant pas les discours haineux (techniquement et socialement), en ne les propageant pas (techniquement et socialement).

 

Prendre soin des structures qui proposent des petits bouts de réseaux en leur évitant d’avoir trop de pouvoir et donc trop de responsabilités sur les épaules (et trop de coûts).

 

Prendre soin des modérateurices en les soutenant via un collectif aimant et disponible pour leur faire des chocolats chauds et des câlins.

Cher·e modérateurice qui me lis, tu fais un boulot pas facile, et grâce à toi le réseau est plus beau chaque jour. Merci pour ton travail, j’espère que tu as un collectif qui te soutiens, et que se soit le cas ou non, pense à avoir sous la main le numéro d’un·e psychologue, au cas où un jour tu tombes sur quelque chose de vraiment difficile pour toi/vous.

 

Cœur sur vous <3

 

Et pour finir ?

Je n’ai pas pu m’empêcher de conclure avec un billet dédié au contraste entre mon expérience de la modération et ce qui se passe sur Twitter. La semaine prochaine paraîtra donc un billet spécialement dédié à l’oiseau bleu : et Twitter alors ?




L’aventure de la modération – épisode 3

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le troisième.

Les cas d’étude c’est bien sympa, mais cela ne donne qu’une vision partielle du fonctionnement. Aussi je vais détailler ma montée en compétence sur la modération, et celle du collectif parce que ça fait partie des solutions à mettre en place pour que se soit un boulot le moins délétère possible !

 

Les outils accessibles via Mastodon

Mastodon permet, pour les utilisateurices inscrites chez nous de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— supprimer un message
— limiter la visibilité du compte à ses abonnés seulement
— suspendre le compte sur un temps restreint
— supprimer le compte définitivement
— contacter l’utilisateurice par message privé
— contacter l’utilisateurice par mail
— bloquer un Mastodon entier (!!) (aussi appelé instance).

 

Pour les utilisateurices qui ne sont pas chez nous, il est seulement possible de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— limiter la visibilité du compte à ses abonnés
— bloquer le compte
— contacter l’utilisateurice par message privé.

 

Lorsqu’une personne effectue un signalement, nous recevons une notification par mail si :
— la personne faisant le signalement se trouve chez nous
— la personne signalée est chez nous ET que la personne ayant fait le signalement a demandé explicitement à ce que nous le recevions.

 

Les signalements les plus importants à gérer étant évidemment ceux concernant des personnes se trouvant sur notre (instance de) Mastodon et ayant un comportement problématique. Actuellement, la majorité des signalements pour lesquels nous sommes notifiés sont faits par une personne inscrite chez nous à propos de contenus qui se trouvent ailleurs, sans doute pour prévenir les modérateurices de l’autre Mastodon qu’il y a quelque chose à regarder de leur coté.

 

Au fur et à mesure du temps, j’ai l’impression que si les signalements ne sont pas liés à du contenu chez nous, et ne sont pas explicitement problématiques, on peut laisser la responsabilité d’agir aux modérateurices des autres instances.

 

L’important étant de bien s’occuper de ce qui se trouve chez nous. 🙂

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

Comment ça se passe ?

Donc une fois la notification par mail reçue, on se connecte à un compte avec les droits de modération (pour certains leur compte personnel, pour d’autres le compte de modération que nous avons créé à la sortie de la charte pour avoir un compte dédié à ce sujet). Nous avons accès à une interface récapitulant le compte concerné, les contenus signalés, le message du signalement expliquant pourquoi il a été effectué (extrêmement important car sinon on perd énormément de temps à comprendre ce qui est reproché) et quelques autres indicateurs (notamment le nombre de signalements déjà effectués, pratique pour repérer les récidivistes).

 

Démarre ensuite dans la grande majorité des cas un travail d’enquête afin de comprendre le contexte. C’est une action extrêmement chronophage mais qui nous permet de savoir si la personne a une façon de se comporter correcte, un peu pénible ou carrément problématique, ce qui va influencer le niveau de sévérité de l’action de modération.

 

Si nous avons de la chance, il suffit de parcourir une dizaine de contenus, mais parfois la personne a partagé des vidéos, et il est nécessaire de regarder l’entièreté de la vidéo pour se rendre compte de son caractère problématique… ou non. C’est comme cela que je me suis retrouvée à regarder vingt minutes d’une vidéo célébrant le Brexit où se trouvaient Asselineau, Nicolas Dupont-Aignan, Florian Philippot. Quel excellent moment.

 

C’est ce travail de contextualisation qui explique pourquoi il est extrêmement important, lorsque vous réalisez un signalement, de mettre le plus de détails possibles : quels sont les contenus incriminés ? Pourquoi pensez-vous que cela mérite une action de modération ? Trop souvent nous avons un signalement composé d’un seul pouet, hors contexte, qui nous oblige à nous y attarder bien plus que si on nous avait fourni des explications détaillées. (Merci pour nous !)

 

Une fois cette contextualisation réalisée, il est temps de se décider… est-ce qu’il y a quelque chose à faire ? Est-ce qu’on supprime les contenus incriminés ? Est-ce qu’on contacte la personne ?

 

À Framasoft nous avons un tchat dédié à la modération, dans lequel nous partageons notre analyse du contexte, le signalement, et nous proposons l’action ou les actions qui nous semblent les plus appropriées. L’idée est de pré-mâcher le travail aux copaines tout en n’ayant pas à porter seul le poids de la décision de la « bonne » action de modération à réaliser.

 

Donc une fois que j’ai une idée de ce qui me semblerait « le mieux » à faire (ou pas), je demande leur avis aux copaines sur ce tchat. Il y a ensuite un petit temps d’attente nécessaire, pas problématique dans la plupart des cas mais très stressant quand la situation revêt un caractère « d’urgence », et que quelques heures comptent (par exemple si quelqu’un commence à se prendre une vague de harcèlement, plus vite on peut la protéger mieux c’est).

 

Si on n’est pas d’accord, on discute, jusqu’à tomber d’accord ou ne pas tomber d’accord et utiliser la règle du « c’est qui qui fait qui décide ». Donc si on se dit « cette personne il faudrait la contacter pour lui expliquer » mais que personne n’a l’énergie de rédiger quelque chose… ben on fait différemment en choisissant une action qui tient compte du niveau d’énergie des modérateurices.

 

Et enfin, on réalise l’action de modération « finale » qui, si elle est technique, est hyper rapide (nonobstant un petit message pour prévenir si on a envie d’en faire un), mais qui si elle est dans la « communication » n’est que le début du chemin !

 

J’espère que cela vous permet de davantage mesurer l’effort invisible qu’est la modération : Recevoir la notification, Identifier le niveau d’urgence, Contextualiser, Synthétiser, Trouver une décision juste, la Soumettre au collectif, Attendre les retours, Discuter, Agir, peut-être Répondre… 9 à 10 étapes qui ne sont vues de personne, excepté si les contenus ou le compte sont purement et simplement supprimés. Il est donc très facile de dire que « rien » n’est fait alors que ça s’active en coulisses.

 

De plus, dans un monde où tout et n’importe quoi est « urgent » autant vous dire que ça n’est pas facile de prendre le temps de décider sereinement d’une action la plus juste possible alors que précisément, cela demande du temps de ne pas réagir sur le coup de l’émotion !

 

L’anonymat des modérateurices

 

Lorsque j’ai débuté la modération, j’avais dans l’idée qu’il était important que les modérateurices soient clairement identifié·es pour qu’il soit plus simple de savoir d’où iels parlent. Non seulement pour savoir si iels sont directement concerné·es par certaines oppressions systémiques, mais aussi pour pouvoir avoir un œil sur leur niveau de déconstruction (ce n’est pas parce qu’on est une meuf et donc qu’on subit le sexisme que cela nous donne un badge « a déconstruit le patriarcat », loin de là).

 

J’en suis complètement revenue, ou plutôt j’ai bougé sur ma position : ce ne sont pas les individus qu’il faut connaitre, mais la position d’un collectif, et savoir si on a envie de faire confiance à ce collectif… ou non !

 

Pourquoi ce changement ? Déjà parce que lors de la vague de harcèlement que nous avons subie à la publication de la charte, la violence était très intense alors que je n’étais pas directement citée : c’était le compte de l’association (@Framasoft@framapiaf.org) qui l’était, et je ne voyais que ce qui tombait dans mon fil ou ce que j’allais voir de moi-même (enfin en étant sous le coup de la sidération, moment où l’on a pas toujours les bonnes pratiques : maintenant je ferme l’ordinateur pour m’éloigner du flot).

 

Si j’étais frustrée de ne pas pouvoir mettre de visage « humain » sur les personnes qui avaient écrit cette charte, j’ai surtout été très protégée par mon anonymat du moment. Et j’ai pu choisir, en mes termes et dans un timing que j’ai choisi, de partager mon ressenti sur la situation (avec l’article intitulé Dramasoft du nom du hashtag utilisé pour l’occasion).

 

Et je me souviens que je savais très clairement que je prenais un grand risque en communiquant sur ma participation à cette charte (et j’ai fait attention à ne pas parler des actions de modération en tant que telle dans un espoir de limiter l’impact). Le fait d’en contrôler la totalité de la publication, quand, sur quel support, auprès de qui, quand je me suis sentie prête, m’a énormément protégée.

 

Je reviens d’ailleurs sur une partie de ce que j’ai énoncé au-dessus, l’importance de

savoir si iels [les modérateurices] sont directement concerné·es par certaines oppressions systémiques

 

Je pense à présent qu’il est très problématique de penser pouvoir regarder un·e individu pour se permettre de juger de si iel ferait un·e bon·ne modérateurice : ce sont les actions et la direction dans laquelle se dirige le collectif qui compte. Nous ne pouvons pas déterminer, de par quelques pouets ou contenus partagés, si une personne est « suffisamment » déconstruite ou non.

 

Pire, cela nous encourage à faire des raccourcis, qui peuvent être d’une violence inouïe. Aussi, il nous a par exemple été reproché de concevoir une charte pour des enjeux de modération dont nous n’avions pas conscience, notamment parce que nous n’avions pas de personnes concerné·es par les oppressions systémiques dans l’équipe (qui seraient composés de mecs cis, het, blancs…).

Déjà c’est faux, car il y a des femmes qui subissent le sexisme qui en font partie (dont moi par exemple !) mais surtout parce qu’il n’est pas possible de savoir quel est le contexte et l’identité de chacun·e des membres, et notamment si certain·es seraient par exemple dans le placard, cachant soigneusement leur identité ou orientation sexuelle.

Rendez-vous compte de la violence, pour quelqu’un qui n’a pas fait son ou ses coming-out, de recevoir de la part d’adelphes qui sont dans le même groupe oppressé qu’elle un message sous entendant qu’elles ne sont pas légitimes puisqu’elles ne sont pas out. La violence est infinie, et je crois que c’est ce qui m’a mise le plus en colère dans cette histoire, car je ne pouvais pas vérifier si des membres étaient touché·es par ces accusations (puisque n’ayant pas fait leur coming-out… vous m’avez comprise).

 

Aussi, à nouveau, je pense que la solution repose sur le collectif, pour pouvoir à la fois s’adresser à quelqu’un tout en protégeant les individus.

À Framasoft, nous avons publié cette charte et ouvert un compte modération derrière lequel chaque membre peut lire les messages, et nous agissons pour des personnes qui nous font confiance. Plus récemment encore, nous avons re-partagé notre vision du monde dans notre manifeste, sans compter les nombreuses conférences et articles de blog qui expliquent comment nous nous positionnons. Si cela ne suffit pas aux utilisateurices, ils peuvent nous bloquer ou aller ailleurs, sans animosité de notre part : nous faisons avec nos petits moyens.

 

Le temps passé

 

Une question qui m’a été souvent posée c’est : Combien de temps vous y passez, à faire de la modération ?

 

Alors déjà il y a une grosse différence de temps passé entre le moment de mise en place de la charte de modération, et maintenant.

 

Lors de la mise en place de la charte et environ un an ensuite, nous étions sur quelques heures par semaine. Actuellement, c’est plutôt quelques heures par mois, et pour des cas moins complexes à gérer (même si on n’est pas à l’abri d’une vague de harcèlement !). Et c’est à mettre au regard du nombre : 1600 utilisateurs actifs chez nous, 11 000 inscrit·es (donc beaucoup de comptes en veille) et 6 millions d’utilisateurs au total sur tout le réseau.

 

Cette immense différence s’expliquer par deux raisons :
– Nous avons viré tous les relous.
– Nous avons fermé les inscriptions, et donc il n’y a plus de nouveaux.

 

Les utilisateurices qui restent sur framapiaf sont celleux qui ne nous demandent pas trop de boulot, et donc on s’en sort bien !

 

Mais je pense que même sur une instance dont les inscriptions restent ouvertes, on doit gagner en tranquillité grâce aux blocages d’instances déjà effectués et à la montée en compétence de l’équipe de modération (si l’équilibre est entretenu pour que les modérateurices restent, ça veut dire que le collectif en prend suffisamment soin !).

 

Note : Si les chiffres d’Olivier Tesquet sont bons (je n’ai pas vérifié), il y a en fait sur Mastodon une bien meilleure façon de modérer que sur Twitter parce que les modérateurices seraient juste… plus nombreuxses ?

 

Mastodon compte aujourd’hui 3615 instances, c’est à dire 3615 politiques de modération potentiellement différentes.
Au passage, ramené au nombre d’utilisateurs actifs, ça fait au moins un modérateur pour 250 mastonautes. Sur Twitter, c’est un pour… 200 000.

Et après ?

C’est l’heure de faire un petit bilan de cette triplette d’articles ! Ce sera dans le prochain épisode !




L’aventure de la modération – épisode 2

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le deuxième.

Maintenant que je vous ai fait une introduction de six pages, c’est le moment de passer au concret : Comment est-ce que se déroule la modération ?

Les cas simples : les fachos, les mascus, l’extrême-droite

De façon surprenante, j’ai découvert que tout ce qu’il y a de plus délétère sur les réseaux sociaux capitalistes, c’est à dire en résumé : les comptes d’extrême-droite, étaient très simples à modérer.

Nous en avons eu un exemple lors de l’été 2018. Twitter a réalisé une vague de fermeture de comptes de mascus provenant du forum tristement connu de jeuxvideo.com, surnommé le 18-25. Comme souvent, ces personnes crient à la censure (…) et cherchent un réseau social alternatif dont la promesse serait de promouvoir une liberté d’expression leur permettant de dire les atrocités qu’ils souhaitent.

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

 

Ils débarquent donc sur Mastodon, avec un schéma qui a été le suivant :

1° Première inscription sur le premier Mastodon trouvé

Les 18-25 étant majoritairement francophones, ils se sont retrouvés souvent sur mamot.fr et parfois chez nous en s’inscrivant sur framapiaf.org, parfois sur mastodon.social qui est le Mastodon proposé par le développeur principal.

Nous avons donc pu commencer une première vague de bannissement en suivant les profils des nouveaux inscrits, et leurs premiers contenus qui concourraient au prix de « qui dit les choses les plus atroces ».

Nous avons fermé les inscriptions momentanément pour endiguer le flot, et peut-être avons nous à un moment viré massivement les nouveaux comptes.

 

« Quoi ?! » vous entends-je dire, « mais c’est en opposition totale avec le point 3 de la charte » !

 

Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.

Ma réponse est donc « vous avez raison » suivie d’un « et nous sommes humains donc nous faisons ce que nous pouvons, en commençant par nous protéger ».

Je ne me souviens pas vraiment de notre façon de modérer à ce moment là : avons-nous attendu que chacun poste quelque chose de problématique avant de le virer ? Ou avons-nous agi de façon plus expéditive ? Même si nous étions dans le second cas, nous étions sur un grand nombre de compte qui venaient de façon groupée pour revendiquer une « liberté d’expression » leur permettant de dire des horreurs… Il n’y a à mon avis pas besoin d’attendre que chacune de ces personnes indique quel est sa façon de penser alors qu’elles viennent massivement d’un endroit (le forum de jeuxvideo.com) qui porte une vision de la société délétère.

 

Donc peut-être qu’on n’a pas respecté strictement la charte sur ce moment là, et encore une fois, je préfère protéger les membres de l’association et les utilisateurices en faisant preuve d’un peu d’arbitraire, plutôt que de suivre une ligne rigide.

 

2° S’inscrire sur un autre Mastodon

Après leur premier bannissement, des informations sur le fonctionnement décentralisé de Mastodon ont circulé. Les nouveaux arrivants se sont donc inscrits sur une autre instance, et ont plus ou moins rapidement été bannis une nouvelle fois.

 

C’est alors que des personnes du fédiverse ont expliqué à ces personnes qui se plaignaient de la fameuse « censure » qu’ils pouvaient monter leur propre Mastodon, et y appliquer leurs propres règles.

 

3° Monter une instance Mastodon rien que pour les 18-25

Sitôt dit, sitôt fait, les nouveaux arrivants s’organisent, montent leur Mastodon (soit grâce à leurs compétences techniques, soit grâce à un service qui propose de le faire) et s’y inscrivent tous.

 

Victoire ! Leur instance Mastodon, leurs règles, plus personne ne les bannira !

 

Quand à nous, nous n’avions plus qu’à appuyer sur le bouton « Bloquer l’instance » pour nous couper de ce Mastodon dédié au 18-25. Problème réglé.

 

Alors je ne voudrais pas vous faire croire que cette cohue s’est faite sans effet problématique. Déjà parce que je ne connais pas ses effets sur tous les utilisateurices de Mastodon, mais aussi parce que les 18-25 ont eu le temps de poster des contenus très violents, le point culminant étant une photo de la salle du Bataclan le soir du 13 novembre, remplie de cadavres. Je n’ai pas vu cette image mais un ami de l’association oui, et je maudis notre manque d’expérience pour ne pas avoir pu empêcher qu’il soit confronté à cette image horrible.

 

Mais de façon générale, tous les discours de haine sont vraiment aisés à modérer. Juste : Ça dégage. Fin de la discussion.

 

Là où ça devient difficile, se sont sur les cas qui jouent avec les limites.

 

Cas limites : quand une personne est… pénible

Je pense que c’est ce type de cas qui nous a valu une réputation de « mauvaise modération » : certaines personnes qui ne posaient pas de problème légaux, n’étaient pas agressifs au sens strict du terme ou ne partageaient pas de contenu violent, mais qui étaient… relous.

 

Un peu de mansplanning par ci, une discussion sur un sujet d’actualité avec une position moralisante par là… Bref, tout ce qui fait plaisir à lire (non) sans réellement mériter de couperet de la part de la modération.

 

Nous sommes arrivés à un point où les salariés qui faisaient de la modération avaient masqué le compte depuis leur profil personnel, mais ne se sentaient pas légitimes à le virer de notre Mastodon puisque rien de suffisamment répréhensible n’avait été fait.

 

Maintenant que j’ai un peu de recul, je peux dire que nous avons deux postures possibles dans ce cas, chacune nécessitant un travail de contextualisation lié au compte : quelle description du compte ? Quels contenus partagés ? Dans quelle ambiance est la personne ? Ça n’est pas la même chose si la personne écrit dans sa biographie « Mec cis-het et je vous emmerde » que si il est écrit « Faisons attention les un·es aux autres ».

Bien sûr, rien n’est strictement « éliminatoire », mais chaque élément constitue un faisceau d’indices qui nous pousse nous-même à passer plus ou moins de temps à prendre soin de la personne, de façon équivalente au soin que cette personne semble mettre dans ces échanges sur le média social.

 

Si la personne semble globalement prendre soin, mais a été signalée, nous pouvons décider de rentrer en discussion avec elle. C’est une option intensément chronophage. On pourrait se dire que pour trois messages de 500 caractères, pas besoin d’y passer trop de temps… au contraire !

Autant que possible, chaque message est co-écrit, relu, co-validé avant d’être envoyé, afin de s’assurer que le plus de personnes possibles de l’équipe de modération soient en accord avec ce qui y est écrit, le ton donné… et cela dans un temps le plus réduit possible histoire que l’action de modération ne date pas de quinze jours après le contenu (c’est parfois ce qui arrive). Or les membres de l’équipe sont pour beaucoup bénévoles, ou sinon salarié⋅es avec un emploi du temps très chargé.

Il faut aussi pas mal de relecteurices pour éviter LE truc qui fait perdre trois fois plus de temps : se faire mal comprendre par la personne à laquelle on écrit. Et là… c’est le drame !

 

Une autre option, ressemblant à celle-là mais avec moins de précautions de notre part est d’utiliser notre position d’autorité « Nous sommes la Modération » pour signaler aux personnes que nous comptons sévir en cas de récidive.

 

Cependant, si la personne ne semble pas intéressée par le fait de prendre soin des autres personnes, nous avons une astuce pour ne pas retomber dans le cycle infernal du « est-ce qu’on devrait faire quelque chose ou non ? » : le « ça prend trop d’énergie à l’équipe de modération ».

 

Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.

En effet, c’est un indicateur qui nous permet de ne pas « boucler » trop… si l’on est plusieurs à se prendre la tête sur un signalement, alors que notre énergie serait mieux ailleurs… alors on décide souvent que cela suffit pour mériter un petit message disant en gros « Bonjour, vous prenez trop de temps à l’équipe de modération, merci d’aller vous installer ailleurs ». Cela nous a sorti de maintes situations délicates et c’est une félicité sans cesse renouvelée que de pouvoir citer cette partie de la charte.

 

Cas limites : quand la revendication est légitime

Autre cas compliqué à gérer : les différents moments où les personnes ont une revendication dont le fond est légitime, mais où la forme fait crisser les dents.

 

Par exemple, revenons sur la réputation de Framapiaf d’avoir une mauvaise modération (ou une absence de modération ce qui revient au même).

 

Clarifions un instant les reproches qui me semblent étayées de celles pour lesquelles je n’ai pas eu de « preuve » :

— Il a été dit que nous ne faisions pas de modération, voire que nous ne lisions pas les signalements : c’est faux.

— Par contre, comme expliqué dans le cas au-dessus, nous n’étions pas outillés et expérimentés pour gérer des cas « limites » comme ceux au-dessus qui ont entraine une pénibilité dans les interactions avec de nombreuxses utilisateurices.

 

Nous avions donc bien un manque dans notre façon de faire de la modération. Si vous avez déjà les explications du « pourquoi », je tiens à dire que cela ne nous empêche pas de nous rendre compte que cela a été pénible pour d’autres utilisateurices.

 

Cependant, la façon dont le problème nous a été remonté l’a été de façon souvent agressive, parfois violente car insinuant des choses à propos de nos membres (qui ne seraient que des personnes non concernées par les oppressions… et c’est faux !).

 

Aussi, comment traiter ce sujet, qui porte des valeurs avec lesquelles nous sommes aligné·es (protéger les personnes des relous, facile d’être pour…) mais qui dans le même temps, nous agresse également ? Et comment faire cela sans tomber dans le tone policing, argument bien trop utilisé pour couper court à un débat en tablant sur la forme plutôt que le fond ?

 

Tone-policing : littéralement « modération du ton ». Comportement visant à policer une discussion ou un débat en restreignant ou en critiquant les messages agressifs ou empreints d’une forte charge émotionnelle.

 

Voici mon point de vue : au vu de notre petite taille, nos faibles capacités humaines (des salariés qui font mille choses, des bénévoles), que notre structure est à but non lucratif (donc n’est pas là pour faire du bénéfice pour enrichir quelqu’un) et notre posture d’écoute que nous essayons d’équilibrer avec notre énergie disponible, il n’est pas OK de mal nous parler sauf cas exceptionnel.

Alors bien sûr les cas exceptionnels, ça se discute, ça se débat, mais en gros, à part si nous avons sérieusement blessé quelqu’un de par nos actions, il est possible de nous faire des critiques calmement, sans faire preuve de violence.

 

Et dans un souci d’équité, nous faisons l’effort de creuser les arguments de fond quand bien même la forme ne nous plait pas, afin de vérifier si les reproches que nos recevons sont des critiques avec de la valeur et de l’agressivité, ou seulement de l’agressivité.

 

Cela peut vous sembler étrange de passer du temps là-dessus, mais tant que vous n’êtes pas dans l’association, vous ne vous rendez pas compte de la quantité de gens qui la critiquent. Chaque semaine, des personnes nous signalent par exemple qu’elles sont désespérées par notre utilisation de l’écriture inclusive alors que nous l’utilisons depuis plus de quatre ans. Ou régulièrement parce que nous sommes trop politiques. Alors oui, des reproches agressifs nous en avons régulièrement, mais des critiques constructives, c’est malheureusement bien plus rare.

 

Donc que faire face à cela ? Eh bien mettre le soin au centre pour les personnes qui reçoivent les agressions. Alors encore une fois, je ne parle pas de soutenir les méchants oppresseurs agressifs envers qui on serait en colère, il ne s’agit pas de ça. Il s’agit de réussir à voir chez une personne de notre archipel qu’elle a fait une erreur, tout en prenant soin de l’humain qui a fait cette erreur.

 

Nous voulons prendre soin : de nous, d’autrui, et des Communs qui nous relient

 

Parce que personnellement j’ai vu que se faire agresser alors que l’on fait honnêtement de son mieux n’entraine qu’un repli sur soi, coupant la personne de son désir de contribuer à un monde meilleur, parce qu’elle a été trop blessée.

 

Et bien sûr, l’équilibre entre protéger les personnes blessées et celles qui blessent sans le vouloir est extrêmement difficile à tenir. Il faut donc réussir à faire preuve de franchise : oui, là, tu ou on aurait pu faire mieux. À partir de maintenant, comment on fait pour que se soit possible de faire mieux ?

 

Inutile de dire que non seulement ça prend du temps, mais c’est aussi carrément risqué, car on peut se mettre à dos par effet domino tout le groupe dont les membres exprimaient directement cette agressivité, ou indirectement par du soutien aux contenus en questions. Que du bonheur !

 

Les autres cas…

 

Alors oui il y a des robots, mais ça c’est un peu pénible mais vite résolu.

 

Il y a aussi des spécificités liées à Mastodon : comment gérer des contenus qui sont sur un autre Mastodon, auquel vous êtes connectés, et qui sont illégaux dans votre pays mais légaux dans d’autres ? On prend souvent l’exemple dans ce cas du lolicon : les dessins « érotiques » représentant des mineures sont autorisés et courants au Japon, mais interdits en France. Il faut y penser !

 

Enfin un autre cas que vous avez en tête est peut-être le contenu pornographique. Nous n’en faisons pas grand cas ici : nous demandons à ces comptes de masquer par défaut leurs images (une fonctionnalité de Mastodon qui permet de publier la photo floutée et de la rendre nette sur simple clic) et idéalement de rajouter un #NSFW (Not Safe for Work) pour simplifier leur identification.

 

La suite

 

J’espère que ces cas un peu concrets vous permettent de mieux vous rendre compte des interstices qui complexifient le travail de modération. Mais du coté fonctionnement collectif, comment ça se passe ? Je vous raconte ça dans l’article numéro 3 la semaine prochaine.




L’aventure de la modération – épisode 1

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le premier.

Il me semble que mon parcours rassemble plusieurs spécificités qui me permettent d’analyser sous un angle particulier les différentes particularités de la modération :

  • Je suis une femme féministe, et une “geek”,
  • Je suis de gauche (= progressiste), et soutiens tous les mouvements pour plus de justice sociale,
  • Je suis conceptrice d’outils numériques, donc je connais le pouvoir que nous avons lorsque nous créons un produit numérique,
  • Je suis critique du numérique, et notamment du numérique capitaliste (de son petit nom, capitalisme de surveillance). J’enrichis cette réflexion grâce aux discussions que nous avons au sein de l’association Framasoft dont je suis membre bénévole.
  • J’ai fait de la modération pour un réseau social et ce réseau social n’était pas capitaliste.

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

C’est parti !

3615 ma vie : d’où je parle

Un ordi dès l’enfance

J’ai toujours été utilisatrice d’ordinateurs.
J’ai retrouvé récemment des photos d’un Noël où j’avais peut-être 4 ou 5 ans et où j’ai eu le droit à un ordinateur format jouet, le genre de trucs qui doit faire des chansons ou proposer des mini-jeux en répétant les mêmes phrases à voix robotique à longueur de journée. Quand j’ai vu cette image, j’ai tout de suite pensé à cette courbe qui montre que l’intérêt des enfants pour l’informatique est similaire pour les filles et les garçons… jusqu’au moment où l’on offre des ordinateurs aux petits garçons et pas aux petites filles.

La courbe montre le pourcentage de femmes diplômées dans quatre sections : médecine, droit, physique, informatique, qui augmente au fur et à mesure du temps. Mais on observe un décrochage des diplômées en informatique juste après que l’ordinateur soit promu comme un jouet pour les garçons.

Or, j’ai eu la chance d’avoir une petite sœur, aussi pas de compétition genrée au sein de la fratrie. Par la suite en 1999 nous avons déménagé en Polynésie Française et dans notre chambre d’enfants nous avions un ordinateur, un Windows 98 que nous pouvions utiliser pour jouer à de nombreux jeux vidéos avec bonheur.

Internet n’était qu’une possibilité très lointaine, réservée à mon père qui parfois tentait de m’aider à me connecter pour pouvoir accéder aux jeux de réseau… mais ça n’a jamais fonctionné (peut-être dû au décalage horaire de douze heures avec l’hexagone, je ne le saurai jamais !).

Une fois de retour en France hexagonale, mon père qui était le technicien de la maison, décède. Ma mère n’étant absolument pas intéressée par le sujet, je deviens l’informaticienne de la maison : c’est souvent moi qui installe les logiciels (par exemple le Scrabble pour jouer en ligne), qui sait comment libérer de la place sur l’ordinateur en désinstallant des logiciels (parce que je le faisais souvent sur le Windows 98, j’avais donc déjà de la pratique).

Dans mon milieu familial, si personne n’est admiratif de mes bidouilles, personne ne m’empêche de les faire et je deviens assez vite autonome. De plus, le collège porte un projet de numérisation et on offre aux 4ᵉ et aux 3ᵉ un ordinateur portable. Il est difficile de se connecter à Internet, il n’y a pas de Wifi, mais cela me permet déjà de jouer, de regarder des films de façon indépendante, bref encore plus d’autonomie pour moi !

Un début de pratique collective du numérique (forums, skyblogs, réseaux sociaux).

Plus tard au lycée, l’accès internet est plus simple (on a du wifi !) et je traine sur des forums notamment liés aux génériques de dessins animés (oui c’est un de mes trucs préférés de la vie, je ne sais toujours pas pourquoi). J’ai souvenir d’être déjà pas mal méfiante, assez poreuse aux discours de “on ne sait pas qui nous parle sur Internet”. C’est le grand moment des skyblogs, qu’on ouvre en deux clics pour raconter sa vie (quel bonheur !). Et enfin, c’est l’arrivée de Facebook qui devient un outil très répandu.

Si je n’ai pas de souvenirs de harcèlement via les réseaux sociaux, je me souviens déjà d’une pression sociale pour s’y inscrire. Nous organisions toutes nos sorties cinéma, anniversaires, soirées via les évènements Facebook, et l’une de nos amies n’y était pas inscrite… nous oubliions de la prévenir systématiquement. =/

Pour la suite je vous la fais rapide, je vieillis, c’est le temps des études que j’oriente d’abord malgré moi vers le design web (j’avais envie de faire des dessins animés mais j’étais pas assez bonne dessinatrice !).


Le début d’un lien entre politique et numérique

Je prends conscience du pouvoir mêlé à l’enfer de l’instantanéité des réseaux sociaux en 2015, au moment des attentats de Charlie Hebdo : je suis fébrilement l’actualité via le hashtag… avant de voir une vidéo de meurtre et de fermer lentement mon ordinateur, horrifiée par ce que je viens de voir. C’est une période où je fais “connaissance” avec les discours islamophobes qui superposent les raccourcis.

Je ne suis, à l’époque, pas très politisée, mais pas à l’aise avec ces discours… jusqu’à ce que je fasse connaissance avec une personne qui a un discours que je trouve très juste sur ce sujet (il doit me faire découvrir le concept d’islamophobie, ce qui est déjà pas mal). Et il s’avère que cette personne étant également dans la mouvance du logiciel libre : je découvre alors un monde numérique qui a une intention éloignée de celles du capitalisme, et notamment l’association Framasoft.


Alternatif, vous avez dit alternatif ?

Je découvre donc ce monde numérique alternatif, ou “libre” et au bout de quelques années, un réseau social alternatif : début 2018, alors que j’utilise beaucoup Twitter, une alternative nommée Mastodon se lance. Je m’y inscris, et l’utilise peu, avant de m’y constituer un petit réseau qui me fait y rester (autant que sur Twitter).

Les années passent encore, nous sommes en 2019 et on me propose de rejoindre Framasoft, ce que j’accepte ! Je découvre un collectif qui développe une réflexion très poussée sur ce qu’il y a de délétère dans la société et notamment le numérique, et qui propose des alternatives émancipatrices.

Lorsque je rejoins l’association, au printemps 2019, un sujet est brûlant au sein de l’asso comme à l’extérieur : la modération du réseau social Framapiaf.


Framapiaf ? Mastodon ? Kezako ?

En 2017, un réseau social alternatif commence à faire parler de lui : il s’agit de Mastodon.

Ce réseau social a un fonctionnement un peu particulier : il est décentralisé, en opposition a plein d’autres réseaux sociaux, notamment les réseaux capitalistes, qui sont eux tous centralisés : Il y a 1 Facebook, 1 Twitter, 1 Instagram, 1 TikTok… etc.

Pour comprendre en moins de deux minutes le concept, je vous laisse regarder cette petite vidéo, sous-titrée en français :  https://framatube.org/w/9dRFC6Ya11NCVeYKn8ZhiD 

Il y a donc une multitude de Mastodon, proposés par une multitude de personnes, associations ou entreprises différentes.
Mais ces Mastodon sont tous connectés les uns aux autres, ce qui permet que les personnes inscrites sur le Mastodon de Framasoft peuvent tout à fait discuter avec des personnes inscrites sur les Mastodon d’autres associations, exactement comme pour les mails ! (si vous avez un mail en @orange.fr et moi un mail en @laposte.net, nous pouvons nous écrire).

Cette spécificité de fonctionnement a plusieurs intérêts, et une grand influence sur les possibilités de modération. Par exemple :

— Le modèle économique de chaque Mastodon est choisi par la structure qui le porte. Chez Framasoft par exemple, se sont les dons qui permettent de tout faire tourner.

— Les règles de modération de chaque Mastodon sont choisies par la structure qui le porte. Aussi, c’est à elle de définir ce qu’elle accepte ou n’accepte pas, en toute indépendance.

— Si les règles ou le modèle économique d’un Mastodon ne vous conviennent pas, vous pouvez… déménager sur un autre Mastodon, tout simplement !


Quel était le problème avec la modération ?

Il faut savoir que Framasoft, entre 2014 et 2019 lançait en moyenne un service par mois (framapad, framadate, framaforms…). Elle a donc lancé Framapiaf pour participer à la promotion du réseau social, sans prendre particulièrement en compte la nécessité de gérer les interactions qui se dérouleraient sur ce média social.

L’association n’était à l’époque composée que de huit salarié·es pour plus de quarante services proposés, des conférences  réalisées, des interventions médias, des billets de blog, des campagnes de dons et financement participatif… bref, l’existence du réseau social n’était qu’un petit élément de cet univers, et sa modération un sous-élément en plus de l’aspect technique…

Je parle des interactions et non pas de la modération car sur d’autres services, les salariés géraient déjà de la modération de contenu : images violentes, notamment de pédopornographie… Mais cela impactait uniquement les salariés et ne se propageait pas vers l’extérieur, donc restait du travail totalement invisible.

Or, avec Framapiaf, s’il y avait des contenus problématiques qui étaient diffusés, ils n’impactaient pas seulement les salariés qui faisaient la modération mais aussi leurs destinataires, et potentiellement tous les usagers du média social.

Aussi de nombreuses utilisatrices ont signalé à l’association (parfois violemment, j’y reviendrais) que l’état de la modération leur semblait insuffisant, et que des personnes avaient des interactions problématiques avec iels.

Les salariés n’ayant pas la disponibilité pour gérer pleinement ce sujet, ce sont des bénévoles qui s’en sont chargés.


Avant la charte : Un flou qui crée des tensions


Recette pour abimer des modérateurices

En effet, jusqu’à présent quelques salarié·es de l’association géraient la modération avec les moyens du bord, étaient souvent seuls à s’occuper des signalements dans leur coin, alors que cette tâche est particulièrement complexe.

 

Pourquoi complexe ? Parce que lorsque l’on est modérateurice, et qu’on souhaite faire un travail juste, notre notion de ce qui est juste est sans cesse réinterrogée.

 

Déjà dans l’analyse de la situation : Est-ce que la personne qui a posté ce contenu l’a fait en sachant sciemment qu’elle risquait de blesser quelqu’un, ou non ?

 

Dois-je lui donner le bénéfice du doute ? Est-elle agressive ou seulement provocante ? Est-ce qu’on doit agir contre une personne provocante ? Est-ce que ce contenu est vraiment problématique, ou est-ce que c’est moi qui me suis levé·e du mauvais pied ? Qui suis particulièrement sensible à cette situation ?

 

Ensuite dans les actions à effectuer : dois-je supprimer ce contenu ? Supprimer ce compte ? Prévenir la personne pour lui expliquer le pourquoi de mes actions, par transparence ? Comment cela va-t-il être reçu ? Quel est le risque de retour de flammes pour moi ? Pour l’association ?

 

Et le meilleur pour la fin : on se sent seul responsable lorsque des personnes extérieures viennent critiquer, parfois violemment, la façon dont la modération est réalisée.

 

Il n’y a aucune réponse universelle à ces questions. Ce qui simplifie, en général, le processus de modération, c’est :

— un collectif qui permet de prendre une décision collégiale (ce qui évite de faire reposer une décision difficile et ses conséquences sur un seul individu)

— une vision politique qui facilite d’autant ces prises de décisions.

Nous avons une chance immense à Framasoft, c’est que toutes les personnes actives au sein de l’association sont très alignées politiquement (ça se sent dans le manifeste que nous venons de publier). Mais il n’y avait pas de collectif de modérateurices pour traiter ces questions et prendre les décisions qui sont les plus dures : celles pour les situations qui se trouvent “sur le fil”.


Structurer un groupe de modérateurices pour s’améliorer

J’arrive donc à Framasoft avec l’envie d’aider sur le sujet de la modération, qui est instamment priorisé par le directeur de l’association au vu du stress dans lequel étaient plongés les salariés-modérateurs.

Nous sommes un petit groupe (trois personnes) à proposer de rédiger une charte qui transposera notre vision politique en discours lisible, sur laquelle nous pourrons nous appuyer et nous référer pour expliciter nos choix de modération futurs et trancher des situations problématiques qui ont profité d’un flou de notre politique de modération.

Nous n’avons pas de débat majeur, étant assez alignés politiquement ; c’est la rédaction de la charte qui a été la plus complexe, car nous étions deux sur trois à être novices en modération, nous ne savions donc pas précisément ce qui nous
servirait dans le futur. La charte est disponible sur cette page et a été publiée le 8 juillet 2019.


Publication de la charte

Donc une fois la charte réalisée, il a fallu la poster.

Et là.

J’ai déjà raconté en partie ce qui s’est passé sur un précédent billet de blog nommé Dramasoft, du nom du hashtag utilisé pour parler de la vague de réactions suite à cette publication.

Pour résumer, nous avons subit une vague de harcèlement, de la part de personnes directement touchées par des oppressions systémiques (ça fait tout drôle). Il s’agit d’un type particulier de harcèlement donc je reparlerai : il n’était pas concerté. C’est à dire que les personnes ayant contribué au harcèlement ne l’ont pas fait de façon organisée. Mais l’accumulation de reproches et d’accusations a exactement le même effet qu’une vague de harcèlement opérée volontairement.

 

D’ailleurs pour moi, elle était pire qu’une vague de masculinistes du 18-25 que j’avais vécu un an auparavant. Car il est bien plus facile de les mettre à distance, en connaissant les mécanismes utilisés et leurs méthodes d’intimidation. Ce n’est pas la même chose de se faire harceler par des personnes qui sont dans le même camp que nous. Et je n’ai pas réussi à créer de la distance, en tout cas sur le moment (maintenant j’ai compris que les façons de communiquer comptaient !).

La charte

Je reviens sur ses différents articles :

1 — Cadre légal

Nous sommes placé·e⋅s sous l’autorité de la loi française, et les infractions que nous constaterons sur nos médias pourront donner lieu à un dépôt de plainte. Elles seront aussi modérées afin de ne plus apparaître publiquement.

Cela concerne entre autres (sans être exhaustif) :

— l’injure
— la diffamation
— la discrimination
— les menaces
— le harcèlement moral
— l’atteinte à la vie privée
— les appels à la haine
— La protection des mineurs, en particulier face à la présence de contenu à caractère pornographique (Loi n° 98-468 du 17 juin 1998 — Article 227-22-1 et Article 227-23 du code pénal).

Alors respecter la loi, ça peut sembler bête de le rappeler, mais ça nous permet de faire appel à un argument d’autorité qui peut être utile lorsqu’on n’a pas envie de faire dans la dentelle.


2 — Autres comportements modérés

Ici nous avons fait en sorte d’être, autant que possible, “ceinture et bretelles” pour rendre explicites que nous trouvons ces différents comportements problématiques. Et si vous avez l’impression qu’il s’agit parfois de choses évidentes, eh bien sachez que ça n’est pas le cas pour tout le monde.

Nous n’accepterons pas les comportements suivants, qui seront aussi modérés :

— Envoyer des messages agressifs à une personne ou à un groupe, quelles que soient les raisons. Si on vous insulte, signalez-le, n’insultez pas en retour.

Permet de ne pas tomber dans le “mais c’est pas moi c’est lui qui a commencé”.

—  Révéler les informations privées d’une personne. Dévoiler ses pseudonymes et les caractères de son identité est un choix personnel et individuel qui ne peut être imposé.

Ici par exemple, on explicite clairement un comportement qui n’a rien de répréhensible en soi (c’est pas interdit de donner des infos sur une personne !) mais qu’on sait avoir des effets délétères sur les personnes visées (si on donne le numéro de téléphone ou l’adresse d’une personne, même si rien ne se passe ensuite, il y a a minima la peur d’être contacté·e par des inconnus qui est vraiment problématique).

 

— Insister auprès d’une personne alors que cette dernière vous a demandé d’arrêter. Respectez les refus, les « non », laissez les gens tranquilles s’iels ne veulent pas vous parler.

On rappelle la base de la notion de consentement, ce qui permet aussi d’encourager les utilisateurices à poser leurs limites si elles souhaitent arrêter un échange.

 

— Tenir des propos dégradants sur les questions de genre, d’orientation sexuelle, d’apparence physique, de culture, de validité physique ou mentale, etc. et plus généralement sur tout ce qui entretient des oppressions systémiques. Si vous pensiez faire une blague, sachez que nous n’avons pas d’humour sur ces questions et que nous ne les tolérerons pas. Dans le doute, demandez-vous préalablement si les personnes visées vont en rire avec vous.

 

Ici, petit point “oppression systémique” aussi résumable en “on est chez les woke, déso pas déso” ; de plus on coupe court à toute tentative de négocier par un prétendu “humour”.

 

— Générer des messages automatiques de type flood, spam, etc. Les robots sont parfois tolérés, à condition d’être bien éduqués.

Les bots pourquoi pas mais selon ce qui nous semble être “une bonne éducation” et oui c’est totalement arbitraire. 🙂

 

— Partager des émotions négatives intenses (notamment la colère), en particulier à l’égard d’une personne. Les médias sociaux ne sont pas un lieu approprié pour un règlement de compte ou une demande de prise en charge psychologique. Quittez votre clavier pour exprimer les émotions intenses, trouvez le lieu adéquat pour les partager, puis revenez (si nécessaire) exposer calmement vos besoins et vos limites.

Ici on partage notre vision des réseaux sociaux : Ils ne permettent pas d’avoir une discussion apaisée, ne serait-ce que parce qu’ils limitent grandement le nombre de caractères et par là même, la pensée des gens. Donc si ça ne va pas, si vous êtes en colère, éloignez-vous-en et revenez quand ça ira mieux pour vous.

 

— Participer à un harcèlement par la masse, inciter à l’opprobre général et à l’accumulation des messages (aussi appelé dog piling). Pour vous ce n’est peut-être qu’un unique message, mais pour la personne qui le reçoit c’est un message de trop après les autres.

Ici on place la différence entre une action et l’effet qu’elle peut avoir sur les personnes. En effet, si le harcèlement organisé est facile à imaginer, on se rend moins compte de l’effet que peut avoir un flot de messages envoyé à une personne, quand bien même les expéditeur·ices ne se sont pas coordonnés pour générer une vague de harcèlement… le ressenti final est similaire : on reçoit des tonnes de messages propageant de la colère ou des reproches, alors qu’on est seul·e de l’autre coté de l’écran.

 

— Dénigrer une personne, un comportement, une croyance, une pratique. Vous avez le droit de ne pas aimer, mais nous ne voulons pas lire votre jugement.

On conclut avec une phrase plus généraliste, mais qui nous permet d’annoncer que le réseau social n’est pas là pour clamer son avis en dénigrant les autres.


3 — Les personnes ne sont pas leurs comportements

Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.

Nous changeons et nous apprenons au fil de notre vie… aussi des comportements que nous pouvions avoir il y a plusieurs années peuvent nous sembler aujourd’hui complètement stupides… Cette phrase est donc là pour annoncer que, a priori, nous aurons une tolérance pour les nouveaux arrivants et nouvelles arrivantes.

Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.

Cette phrase est parmi celles qui nous servent le plus : à Framasoft, ce qui nous sert de ligne de rupture, c’est l’énergie que nous prend une personne. Quand bien même ce qui est fait est acceptable du point de vue de la charte, si nous sommes plusieurs à nous prendre la tête pour savoir si oui, ou non, les contenus partagés méritent une action de modération… Eh bien c’est déjà trop.

Après tout, nous avons d’autres projets, l’accès à nos services est gratuit, mais il n’y a pas de raison de nous laisser
vampiriser notre temps par quelques utilisateurs qui surfent sur la frontière du pénible.


4 — Outils à votre disposition

Nous demandons à chacun⋅e d’être vigilant⋅e. Utilisons les outils à notre disposition pour que cet espace soit agréable à vivre :

 

Si quelqu’un vous pose problème ou si vous vous sentez mal à l’aise dans une situation, ne vous servez pas de votre souffrance comme justification pour agresser. Vous avez d’autres moyens d’actions (détaillés dans la documentation)

  • fuir la conversation,
  • bloquer le compte indésirable,
  • bloquer l’instance entière à laquelle ce compte est rattaché (uniquement disponible sur Mastodon),
  • signaler le compte à la modération.

Copie d’écran d’un signalement sur Framapiaf

Une partie de l’action des modérateurices est de faire (ce que j’appelle personnellement) “la maîtresse”. J’ai plusieurs fois l’impression de me faire tirer la manche par un enfant qui me dirait “maîtresse, untel est pas gentil avec moi”. J’y reviendrai, mais c’est pour cela que nous listons les façons d’agir : pour que dans les cas mineurs, les personnes puissent agir elles-mêmes. Déjà parce que se sera toujours plus rapide, que cela permet à la personne de faire l’action qu’elle trouve juste, et puis parce que ça permet de ne pas nous prendre du temps pour des cas qui restent des petites prises de bec individuelles.

 

— Si quelqu’un vous bloque, entendez son souhait et ne cherchez pas à contacter cette personne par un autre biais, ce sera à elle de le faire si et quand elle en aura envie.

 

Petit point consentement, ça fait pas de mal.

 

— Si vous constatez des comportements contraires au code de conduite menant des personnes à être en souffrance, signalez-le à la modération afin de permettre l’action des modérateurs et modératrices. Alerter permet d’aider les personnes en souffrance et de stopper les comportements indésirables.

 

Il ne nous est pas possible d’être pro-actif sur la modération, pour deux raisons simples :

1. On a autre chose à faire que passer notre temps à lire les contenus des un·es et des autres.

2. Nous avons nos propres comptes bloqués, masqués, et nous ne sommes pas au sein de toutes les conversations. Aussi il n’est pas possible de tout voir (et de toute façon, ça nous ferait bien trop de boulot !).

 

— S’il n’est pas certain qu’une personne est en souffrance, mais que les comportements à son égard sont discutables, engagez la conversation autour de ces comportements avec chacune des personnes concernées, dans le respect, afin d’interroger et de faire évoluer votre perception commune des comportements en question.

 

Petit point : chacun·e peut être médiateurice, il n’y a pas que les modérateurices qui doivent le faire. J’insiste sur ce point,
car on a tendance à créer une dichotomie entre “les utilisateurs” qui peuvent faire preuve d’immaturité, et les modérateurices qui eux seraient paroles d’évangile ou au moins d’autorité. Il est dommage de ne pas avoir davantage de personnes qui se préoccupent d’un entre deux où elles pourraient ménager les 2 parties afin que chacun·e clarifie pacifiquement sa position, ce qui permettrait sûrement d’éviter les actions de modération.

 

— Dans le cadre du fediverse (Framapiaf, PeerTube, Mobilizon,…), vous pouvez également masquer un compte (vous ne verrez plus ses messages dans votre flux mais vous pourrez continuer à discuter avec la personne). Vous pouvez aussi bloquer un compte ou une instance entière depuis votre compte : à ce moment, plus aucune interaction ne sera possible entre vous, jusqu’à ce que vous débloquiez.

 

Référez-vous à la documentation sur les façons de signaler et se protéger suivant les médias utilisés.

 

Et pour conclure, on donne d’autres indications sur la façon de s’auto-gérer sur une partie de la modération.

5 — Actions de modération

Lorsque des comportements ne respectant pas cette charte nous sont signalés, nous agirons dans la mesure de nos moyens et des forces de nos bénévoles.

Les outils de modération à notre disposition dans Framapiaf

Dans certains cas, nous essayerons de prendre le temps de discuter avec les personnes concernées. Mais il est aussi possible que nous exécutions certaines de ces actions sans plus de justification :
— suppression du contenu (des messages, des vidéos, des images, etc.)

— modification (ou demande de modification) de tout ou partie du contenu (avertissement de contenu, suppression d’une partie)

— bannissement de compte ou d’instance, en cas de non-respect des CGU (usage abusif des services) ou de non-respect de cette charte.

N.B. : dans le cadre du fediverse (Framapiaf, PeerTube, Mobilizon, etc.), nous pouvons masquer les contenus problématiques relayés sur notre instance, voire bloquer des instances  problématiques, mais non agir directement sur les autres instances.

La modération est effectuée par des bénévoles (et humain⋅es !), qui n’ont pas toujours le temps et l’énergie de vous donner des justifications. Si vous pensez avoir été banni⋅e ou modéré⋅e injustement : nous sommes parfois injustes ; nous sommes surtout humain⋅e⋅s et donc faillibles. C’est comme ça.

Utiliser nos services implique d’accepter nos conditions d’utilisation, dont cette charte de modération.

Nous faisons ici un récapitulatif des différents pouvoirs que nous avons et surtout que nous n’avons pas :

— le fonctionnement de Mastodon fait que nous pouvons discuter avec des personnes qui ne sont pas inscrites chez nous : nous ne pouvons donc pas supprimer leurs comptes (mais nous pouvons couper leur communication avec nous) ;

— nous sommes principalement des bénévoles, et de ce fait notre temps et énergie est limitée. Aussi, souvent, alors que nous aimerions discuter posément avec chacun·e pour expliquer les tenants et les aboutissants d’une situation… nous n’en avons simplement pas l’énergie, alors nous allons au plus simple. Et c’est frustrant, c’est injuste, mais c’est l’équilibre que nous avons trouvé.

6 — En cas de désaccord

Si la façon dont l’un de nos services est géré ne vous plait pas :

 

— Vous pouvez aller ailleurs.

— Vous pouvez bloquer toute notre instance.

Framasoft ne cherche pas à centraliser les échanges et vous trouverez de nombreux autres hébergeurs proposant des services similaires, avec des conditions qui vous conviendront peut-être mieux. Que les conditions proposées par Framasoft ne vous conviennent pas ou que vous ayez simplement envie de vous inscrire ailleurs, nous essaierons de faciliter votre éventuelle migration (dans la limite de nos moyens et des solutions techniques utilisées).

J’ai dit plus haut que les personnes qui rejoignaient Mastodon ne s’inscrivaient pas toutes chez nous. Cela nous permet par ailleurs de dire aux personnes qui se sont inscrites chez nous “désolés mais vous nous prenez trop d’énergie, trouvez-vous un autre endroit”. Cela ne prive en rien les personnes car elles peuvent s’inscrire ailleurs et avoir accès exactement aux mêmes contenus… mais nous ne sommes plus responsables d’elles !


7 — Évolution de la Charte

Toute « charte de modération » reste imparfaite car il est très difficile de l’adapter à toutes les attentes. Nous restons à votre écoute afin de la faire vivre et de l’améliorer. Pour cela vous pouvez contacter les modérateurs et modératrices pour leur faire part de vos remarques.

Vous pouvez nous faire vos retours, on est pas des zânes ni des têtes de mules.

La suite

Après ce tour sur mon arrivée dans le monde de la modération, la découverte de ce qu’est Mastodon, et ce par quoi nous avons démarré pour structurer une petite équipe de modération face aux difficultés vécues par les salarié·es, le second article de cette série parle de cas concrets.

 

Si vous voulez savoir comment on fait pour gérer les fachos, ça va vous plaire.

 

Illustration : CC-BY David Revoy




De la friture sur le Fediverse ?

Nous vous avons proposé déjà trois articles qui font écho à l’actualité récente autour de Mastodon en voici un 4e, celui d’Aral Balkan, traduit pour vous par Framalang. Le héraut du SmallWeb insiste avec humour sur un point en effet crucial : la taille géante de certaines instances, due à la conception technique même du Fédiverse, risque d’être problématique…

Donc, après :

Voici Is the fediverse about to get Fryed ?

Traduction Framalang :  Claire, Fabrice, goofy, Henri-Paul, jums

Le Fédiverse va-t-il stephenfrire ?

(Ou « Pourquoi chaque pouet est aussi potentiellement une attaque par déni de service »)

par Aral Balkan

bandeau du compte mastodon de Fry, avec sa tête (homme âgé barbu souriant) en médaillon. le compte annonce (au moment de sa capture 5 pouets, 0 abonnements 27 000 abonnés"
Stephen Fry est une célébrité outre-Manche  : écrivain, humoriste, acteur et vedette de la TV (sa page Wikipédia)

 

Stephen est un gros poisson dans une petite mare (oui, j’en ai d’autres en réserve).

Attention : le Fédivers est sur le point de frire. Stephen Fry(re) bien sûr.

À la suite du récent rachat de Twitter par un milliardaire proto-fasciste immature, des gens ont fui1 vers le Fédiverse2. Parmi eux, certains avaient, au moins sur Twitter, des millions de followers, comme Greta Thunberg et, plus récemment, Stephen Fry3

— Eh bien, c’est sûrement une bonne chose, non ? Tout le monde va parler du Fédiverse, de la décentralisation, et peut-être même de ce Small Web dont tu parles tout le temps, Aral, non ?

Eh bien, oui et non… Trop de bonnes choses tue les bonnes choses. Et, dans le Fédiverse actuel, les bonnes choses seraient les « comptes populaires ». En fait, cela pourrait bien être fatal (pour les instances Mastodon). Je vais essayer de détailler dans cet article ce que je veux dire en prenant mon propre compte comme exemple.

Comment tuer un Mastodon(te)

(indice : en étant bavard quand vous êtes populaire)

Inutile de le préciser, je ne suis pas une célébrité.
Et pourtant, dans le Fédiverse, je me retrouve dans une situation un peu unique dans laquelle :

1. J’ai ma propre instance Mastodon, juste pour moi4.
2. Je suis suivi par pas mal de personnes. Plus de 22 000, pour être précis5.
3. Je suis beaucoup de personnes, et j’aime vraiment avoir des conversations avec elles (je pense que c’est ce que les jeunes branchés appellent « l’engagement »).

Malheureusement, la combinaison de ces trois facteurs a créé la tempête parfaite6, ce qui veut dire que désormais, chaque fois que je poste quelque chose qui suscite beaucoup d’engagement, je finis par conduire une attaque par déni de service contre moi-même.

Mastodon : déni de service en tant que service ?

Hier, c’était mon anniversaire.
Et, bien sûr, j’ai posté sur ce sujet depuis mon instance Mastodon.

tête d'Aral qui fait l'andouille sur un pouet de mastodon et demande en anglais : "qui a deux pouces et 46 ans aujourd'hui ?"

J’ai eu pas mal de réponses. Et, pour être poli, j’ai commencé à répondre à tout le monde avec des messages de remerciements. Oh non, mon pauvre naïf ! Qu’est-ce que tu n’avais pas fait ?

Je vais laisser mon ami Hugo Gameiro, qui gère masto.host et héberge mon instance, expliquer ce qui s’est passé ensuite7 :

Vous avez beaucoup d’engagement et cela sollicite beaucoup Sidekiq8.

Prenez, par exemple, votre message d’anniversaire. En plus de demander à des milliers de serveurs de traiter votre demande de réalisation (on appelle ça des « jobs ») pour propager votre message (pour 23 000 abonnés, disons 3 000 serveurs), votre serveur au moment de la création de votre message va créer 3 000 jobs Sidekiq. Et comme votre Sidekiq n’a que 12 threads, traiter 3 000 jobs va prendre du temps puisqu’il ne peut en traiter que 12 à la fois.
Ensuite, pour chaque réponse à ce message, 3 000 jobs sont à nouveau créés, afin que vos abonnés puissent voir votre réponse sans avoir à changer de serveur ou aller sur votre profil. Et puis, si vous répondez à votre réponse, 3 000 jobs supplémentaires sont créés, etc.
Si vous répondez aux 100 réponses que vous avez reçues en 10 minutes (en supposant que l’estimation de mon nombre de serveurs est correcte), vous créez 300 000 jobs Sidekiq. C’est pour cela que ça bouchonne.

Mais qu’est-ce que tout cela veut bien dire, si on omet le jargon technique ?
Eh bien, que je parlais trop en étant trop connu de tous.

tableau de bord de sidekiq avec plusieurs graphiques et des chiffres qui montrent un pic de fréquentation que le logiciel a du mal à traiter
Voilà à quoi ressemble un embouteillage sur Mastodon.

Alors, quelle est la solution ?
Eh bien, il n’y a qu’une chose à faire quand vous vous retrouvez dans ce pétrin : agrandir votre instance Mastodon9. Le problème ? Ça commence à coûter cher.
Avant la dernière migration de Twitter10, je payais environ 280 €/an (un peu plus de 20 €/mois) pour mon instance Mastodon grâce à un partenariat que j’avais avec Hugo depuis le début. Cette semaine, je l’ai agrandie avec un plan à 50 €/mois. Et ce n’est toujours pas assez, comme le montre mon message d’anniversaire, donc Hugo a gentiment suggéré de me proposer un plan sur mesure.
Le problème n’est pas résolu pour autant, il est juste repoussé (sauf si cet article énerve tout le monde, bien sûr).
Heureusement, comme j’ai ma propre instance, la seule personne pénalisée par cette dépense supplémentaire, c’est moi. Mais que se serait-il passé si j’étais sur une instance publique gérée par quelqu’un d’autre ?

Tu déconnes, Elon ?

tweet iroique d'Aral en anglais ; Silicon Vallée : on va rendre les gens dépendants en leur filan des sucreries gratuites pour qu'ils ne se rendent pas compte qu'on les trait comme des vaches à lait / Elon Musk : faisons-les payer 8 dollars par moi pour les sucreries

Si Elon Musk voulait détruire mastodon.social, l’instance phare de Mastodon, il lui suffirait de s’y inscrire11.
Heureusement, Elon n’est pas assez intelligent pour ça.

Je plaisante, bien sûr… Eugen bannirait très probablement son compte dès qu’il le verrait. Mais ça illustre un problème : Elon est facile à bannir. Stephen Fry l’est beaucoup moins. C’est un véritable trésor national pour nous tous. On ne le bannit pas comme ça.
Et pourtant, Stephen peut lui aussi (bien qu’involontairement) coûter très cher aux gens qui gèrent des instances Mastodon, simplement en rejoignant l’une d’elles12..
La solution, pour Stephen tout du moins, est simple : il devrait gérer sa propre instance personnelle.
Ou demander à quelqu’un de le faire à sa place, comme je le fais13.
Gérer sa propre instance apporterait aussi à Stephen un autre bénéfice : il serait automatiquement vérifié. Après tout, si vous parlez à, mettons, @stephen@social.stephenfry.com, vous pouvez être certain que c’est bien lui parce que vous savez qu’il gère son propre domaine.

Des instances personnelles à la rescousse



Mon discours au Parlement européen sur les problèmes avec la Big Tech et les approches différentes que proposent Mastodon, le Fédiverse, et le Small Web.

— Attends, je suis largué… Tu ne viens pas de dire que les instances personnelles étaient une partie du problème ?
— Oui et non : elles le sont et elles ne devraient pas l’être.

Si ActivityPub (le protocole) et Mastodon (un serveur qui adhère à ce protocole) avaient été conçus pour promouvoir la décentralisation, alors avoir plus d’instances sur le réseau ne serait pas un problème. En fait, ça serait même le signe d’un réseau décentralisé sain.
Cependant, ActivityPub et Mastodon ont été conçus de la même manière que la Big Tech / Big Web : pour encourager des services qui hébergent le plus d’utilisateurs14 possible.
Cette architecture est à la fois complexe (ce qui la rend difficile et coûteuse à héberger) et très efficace pour la Big Tech (où les choses sont centralisées et passent à l’échelle verticalement, et où le but est d’avoir / de contrôler / d’exploiter autant d’utilisateurs que possible).
Dans la Big Tech, le coût initial pour passer à l’échelle est subventionné par de nombreuses sociétés de capital-risque (des personnes riches investissant dans de nouveaux business d’extraction et d’exploitation – ce que la Silicon Valley appelle des startups – dans le but de devenir encore plus riches), et ça mène à ces silos géants15 que sont aujourd’hui les Google, Facebook et Twitter.
Toutefois, à la différence de la Big Tech, le but avoué du Fédiverse est de décentraliser les choses, pas de les centraliser. Du coup, comment pourrions-nous atteindre l’opposé des buts de la Big Tech en adoptant leurs architectures de base ?
Lorsque vous adoptez le design de quelque chose, vous héritez aussi des critères de réussite qui ont mené à ce design. Si ces critères de réussite ne correspondent pas à vos objectifs, vous avez un sacré problème.
Pour le dire plus simplement :
N’adoptez pas les critères de réussite de la Big Tech, sinon vous deviendrez la Big Tech.

Ce n’est pas la taille qui compte

Aujourd’hui, il y a une équivalence entre la taille de mastodon.social (l’instance gérée par Eugen) et le succès de Mastodon (le logiciel créé par Eugen). C’est très dangereux. Plus mastodon.social grossit, plus il va ressembler à Twitter.
Je peux presque vous entendre crier : « Mais Aral, c’est fédéré ! Au moins, il n’y a pas de verrous sur mastodon.social ! ».
Et c’est vrai.
Vous savez ce qui est également fédéré ? L’e-mail.
Avez-vous déjà entendu parler de cette petite et vieille instance appelée Gmail ? (Ou peut-être les termes « adopte, étend, étouffe » ?)
Savez-vous ce qui arrive à votre e-mail si Google déclare (à tort ou à raison) que vous êtes un spam ? Personne ne voit votre e-mail.
Vous savez ce qui se passe si mastodon.social bloque votre instance ? Des centaines de milliers de gens (bientôt des millions ?) ne pourront plus décider d’afficher ou non vos messages.
Que se passe-t-il quand votre instance bloque mastodon.social ? Absolument rien.
C’est un réel déséquilibre des puissances.

La décentralisation commence par soi-même

Mastodon est non-lucratif, et je n’ai pas de raison de croire qu’Eugen n’ait pas les meilleures intentions du monde. Et pourtant, la décentralisation commence par se décentraliser soi-même.
C’est dans l’intérêt du Fédiverse que mastodon.social donne le bon exemple en limitant sa taille volontairement.
En fait, ça devrait même être intégré au logiciel. Les instances Mastodon devraient être empêchées de croître au-delà d’une certaine taille. Les instances qui sont déjà trop grosses devraient avoir des moyens d’encourager les gens à migrer vers des plus petites.
En tant que communauté, nous devrions aborder les grandes instances comme des tumeurs : comment pouvons-nous les détruire pour qu’elles ne soient plus un danger pour l’organisme ?
En poussant ce raisonnement, on arrive au concept du Small Web, un internet où nous possédons et maîtrisons notre propre lieu (ou nos propres lieux).

Cliquez sur l’image pour voir une vidéo (sur aperi.tube, une instance PeerTube) : Aral expliquant ce qu’est pour lui le Small Web


Small is beautiful! (Petit c’est mieux) (octobre 2022) : Qu’est-ce que le Small Web et pourquoi en avons-nous besoin ?

 

Cui-cui ?

Je ne dis pas que les protocoles et applications actuels du Fédiverse peuvent, vont, ou même devraient évoluer vers le Small Web16. Pour l’instant, le Fédiverse est un palliatif inestimable qui fournit un lieu plus sûr que les fosses septiques centralisées de la Silicon Valley.

Le temps que durera le palliatif dépendra de notre capacité à résister à la centralisation. Les designs des serveurs et des protocoles qui incitent au passage à l’échelle vertical ne rendront pas forcément cette tâche plus facile. Et pourtant, il y a des moyens de pression sociaux que nous pouvons utiliser pour contrer leurs effets.

La dernière chose qu’on souhaite, c’est qu’une poignée de Zuckerbergs au petit pied gouvernent le Fédiverse. Ou pire encore, que vous deveniez vous-même un de ces mini-Zuckerbergs.

J’aime le fait que le Fédiverse existe. Et j’ai le plus grand respect pour les efforts gargantuesques qui lui sont dédiés. Mais je suis aussi très préoccupé par les décisions prises en termes d’architecture qui incitent à la centralisation, et non à la décentralisation. Je nous implore de reconnaître cela, pour limiter les risques du mieux que nous le pouvons, pour nous efforcer d’apprendre de nos erreurs, et pour faire encore mieux demain.
Gens d’ActivityPub et de Mastodon :
Considérez-moi comme votre canari dans une mine de charbon
« Cui-cui ! Cui-cui ! Cui-cui ! »

 

*Si vous souhaitez soutenir la Small Technology Foundation, qui est sans but lucratif : https://small-tech.org/fund-us




Mastodon, fin de (première) partie ?

L’afflux récent d’inscriptions sur Mastodon, sous forme de vague inédite de cette ampleur, a largement retenti dans les médias.

Beaucoup se sont penchés sur le réseau social fédéré avec une curiosité nouvelle, pour expliquer (parfois de façon maladroite ou fragmentaire, mais c’est habituel17) de quoi il retourne aux nombreux « migrants » qui ont réagi vivement à la prise de contrôle de l’oiseau bleu par E. Musk.

L’événement, car c’en est un tant les réseaux sociaux sont devenus un enjeu crucial, a suscité, et c’est tout à fait sain, beaucoup d’interrogations, mais souvent selon une seule perspective : « Vous venez de l’oiseau qui a du plomb dans l’aile, que pouvez-vous trouver et que devez-vous craindre en vous inscrivant sur Mastodon ? ». Et en effet cela répond plus ou moins à une forte demande.

Cependant il nous est apparu intéressant  d’adopter le temps d’un article une sorte de contre-champ : « que peuvent espérer ou redouter les mastonautes (ben oui on peut les appeler ainsi) avec de massives nouvelles arrivées ? »

C’est ce que propose d’analyser Hugh Rundle dans le billet que nous avons traduit ci-dessous. Il connaît bien Mastodon, dont il administre une instance depuis plusieurs années. Sa position pourra sembler exagérément pessimiste, car il estime qu’il faudra faire le deuil de Mastodon tel qu’on l’a connu depuis les débuts du Fédiverse. Qui sait ce qu’apporteront les prochains mois à la fédération de serveurs minuscules ou obèses qui par leur interconnexion fédèrent des êtres humains, hors de portée du capitalisme de surveillance ? Comme d’habitude, les commentaires sont ouverts et modérés.

Article original sur le blog de l’auteur : Mastodon’s Eternal September begins

Licence CC BY 4.0

L’éternel septembre de Mastodon commence…

par Hugh Rundle

 

Plus personne n’y va. Il y a trop de monde.

Yogi Berra, et alii

Cette fois, on dirait bien que c’est arrivé. Alors que les sites d’information commençaient à annoncer qu’Elon Musk avait finalisé l’achat de Twitter, l’éternel septembre du Fediverse – espéré et redouté en proportions égales par sa base d’utilisateurs existante – a commencé.

Nous avons déjà connu des vagues de nouvelles arrivées – la plus récente au début de cette année, lorsque Musk a annoncé son offre d’achat – mais ce qui se passe depuis une semaine est différent, tant par son ampleur que par sa nature. Il est clair qu’une partie non négligeable des utilisateurs de Twitter choisissent de se désinscrire en masse, et beaucoup ont été dirigés vers Mastodon, le logiciel le plus célèbre et le plus peuplé du Fediverse.

Deux types de fêtes

À Hobart, à la fin des années 1990, il y avait essentiellement trois boîtes de nuit. Elles étaient toutes plus ou moins louches, plus ou moins bruyantes, mais les gens y allaient parce que c’était là que les autres se trouvaient – pour s’amuser avec leurs amis, pour attirer l’attention, pour affirmer leur statut social, etc. Ça, c’est Twitter.

J’avais un ami qui vivait dans une colocation au coin d’un de ces clubs populaires. Il organisait des fêtes à la maison les week-ends. De petites fêtes, juste entre amis avec quelques amis d’amis. Ça, c’est le Fediverse.

Déferlement

Pour ceux d’entre nous qui utilisent Mastodon depuis un certain temps (j’ai lancé mon propre serveur Mastodon il y a 4 ans), cette semaine a été accablante. J’ai pensé à des métaphores pour essayer de comprendre pourquoi j’ai trouvé cela si bouleversant.

C’est censé être ce que nous voulions, non ? Pourtant, ça ressemble à autre chose. Comme lorsque vous êtes assis dans un wagon tranquille, discutant doucement avec quelques amis, et qu’une bande entière de supporters de football monte à la gare de Jolimont après la défaite de leur équipe. Ils n’ont pas l’habitude de prendre le train et ne connaissent pas le protocole. Ils supposent que tout le monde dans le train était au match ou du moins suit le football. Ils se pressent aux portes et se plaignent de la configuration des sièges.

Ce n’est pas entièrement la faute des personnes de Twitter. On leur a appris à se comporter d’une certaine manière. À courir après les likes et les retweets. À se mettre en valeur. À performer. Tout ce genre de choses est une malédiction pour la plupart des personnes qui étaient sur Mastodon il y a une semaine. C’est en partie la raison pour laquelle beaucoup sont venues à Mastodon en premier lieu, il y a quelques années.

Cela signifie qu’il s’est produit un choc culturel toute la semaine, pendant qu’une énorme déferlement de tweetos descendait sur Mastodon par vagues de plus en plus importantes chaque jour. Pour les utilisateurs de Twitter, c’est comme un nouveau monde déroutant, tandis qu’ils font le deuil de leur ancienne vie sur Twitter. Ils se qualifient de « réfugiés », mais pour les habitants de Mastodon, c’est comme si un bus rempli de touristes de Kontiki venait d’arriver, et qu’ils se baladaient en hurlant et en se plaignant de ne pas savoir comment commander le service d’étage. Nous aussi, nous regrettons le monde que nous sommes en train de perdre.

Viral

Samedi soir, j’ai publié un billet expliquant deux ou trois choses sur l’histoire de Mastodon concernant la gestion des nœuds toxiques sur le réseau. Puis tout s’est emballé. À 22 heures, j’avais verrouillé mon compte pour exiger que les abonnés soient approuvés et mis en sourdine tout le fil de discussion que j’avais moi-même créé.

Avant novembre 2022, les utilisateurs de Mastodon avaient l’habitude de dire pour blaguer que vous étiez « devenu viral » si vous obteniez plus de 5 repouets ou étoiles sur un post.

Au cours d’une semaine moyenne, une ou deux personnes pouvaient suivre mon compte. Souvent, personne ne le faisait. Et voilà que mon message recevait des centaines d’interactions. Des milliers. J’ai reçu plus de 250 demandes de suivi depuis lors – tellement que je ne peux pas supporter de les regarder, et je n’ai aucun critère pour juger qui accepter ou rejeter. En début de semaine, je me suis rendu compte que certaines personnes avaient crossposté mon billet sur le Mastodon sur Twitter. Quelqu’un d’autre en avait publié une capture d’écran sur Twitter.

Personne n’a pensé à me demander si je le voulais.

Pour les utilisateurs d’applications d’entreprise comme Twitter ou Instagram, cela peut ressembler à de la vantardise. Le but n’est-il pas de « devenir viral » et d’obtenir un grand nombre d’abonnés ? Mais pour moi, c’était autre chose. J’ai eu du mal à comprendre ce que je ressentais, ou à trouver le mot pour le décrire. J’ai finalement réalisé lundi que le mot que je cherchais était “traumatique”.

En octobre, j’avais des contacts réguliers avec une douzaine de personnes par semaine sur Mastodon, sur 4 ou 5 serveurs différents. Soudain, le fait que des centaines de personnes demandent (ou non) à se joindre à ces conversations sans s’être acclimatées aux normes sociales a été ressenti comme une violation, une agression. Je sais que je ne suis pas le seul à avoir ressenti cela.

Le fait que tous les administrateurs de serveurs Mastodon que je connais, y compris moi-même, aient été soudainement confrontés à un déluge de nouveaux inscrits, de demandes d’inscription (s’ils n’avaient pas d’inscription ouverte), puis aux inévitables surcharges des serveurs, n’a probablement pas aidé. Aus.social a cédé sous la pression, se mettant hors ligne pendant plusieurs heures alors que l’administrateur essayait désespérément de reconfigurer les choses et de mettre à niveau le matériel. Chinwag a fermé temporairement les inscriptions. Même l’instance phare mastodon.social publiait des messages plusieurs heures après leur envoi, les messages étant créés plus vite qu’ils ne pouvaient être envoyés. J’observais nerveusement le stockage des fichiers sur ausglam.space en me demandant si j’arriverais à la fin du week-end avant que le disque dur ne soit plein, et je commençais à rédiger de nouvelles règles et conditions d’utilisation pour le serveur afin de rendre explicites des choses que « tout le monde savait » implicitement parce que nous pouvions auparavant acculturer les gens un par un.

Consentement

Jusqu’à cette semaine, je n’avais pas vraiment compris – vraiment apprécié – à quel point les systèmes de publication des entreprises orientent le comportement des gens. Twitter encourage une attitude très extractive de la part de tous ceux qu’il touche. Les personnes qui ont republié mes articles sur Mastodon sur Twitter n’ont pas pensé à me demander si j’étais d’accord pour qu’ils le fassent. Les bibliothécaires qui s’interrogent bruyamment sur la manière dont ce “nouvel” environnement de médias sociaux pourrait être systématiquement archivé n’ont demandé à personne s’ils souhaitaient que leurs pouets sur le Fediverse soient capturés et stockés par les institutions gouvernementales. Les universitaires qui réfléchissent avec enthousiasme à la manière de reproduire leurs projets de recherche sur Twitter sur un nouveau corpus de pouets “Mastodon” n’ont pas pensé à se demander si nous voulions être étudiés par eux. Les personnes créant, publiant et demandant des listes publiques de noms d’utilisateurs Mastodon pour certaines catégories de personnes (journalistes, universitaires dans un domaine particulier, activistes climatiques…) ne semblaient pas avoir vérifié si certaines de ces personnes se sentait en sécurité pour figurer sur une liste publique. Ils ne semblent pas avoir pris en compte le fait qu’il existe des noms pour le type de personne qui établit des listes afin que d’autres puissent surveiller leurs communications. Et ce ne sont pas des noms sympathiques.

Les outils, les protocoles et la culture du Fediverse ont été construits par des féministes trans et queer. Ces personnes avaient déjà commencé à se sentir mises à l’écart de leur propre projet quand des personnes comme moi ont commencé à y apparaître il y a quelques années. Ce n’est pas la première fois que les utilisateurs de Fediverse ont dû faire face à un changement d’état significatif et à un sentiment de perte. Néanmoins, les principes de base ont été maintenus jusqu’à présent : la culture et les systèmes techniques ont été délibérément conçus sur des principes de consentement, d’organisation et de sécurité communautaires. Bien qu’il y ait certainement des améliorations à apporter à Mastodon en termes d’outils de modération et de contrôle plus fin des publications, elles sont en général nettement supérieures à l’expérience de Twitter. Il n’est guère surprenant que les personnes qui ont été la cible de trolls fascistes pendant la plus grande partie de leur vie aient mis en place des protections contre une attention non désirée lorsqu’elles ont créé une nouvelle boîte à outils pour médias sociaux. Ce sont ces mêmes outils et paramètres qui donnent beaucoup plus d’autonomie aux utilisateurs qui, selon les experts, rendent Mastodon « trop compliqué ».

Si les personnes qui ont construit le Fediverse cherchaient généralement à protéger les utilisateurs, les plateformes d’entreprise comme Twitter cherchent à contrôler leurs utilisateurs. Twitter revendique la juridiction sur tout le « contenu » de la plateforme. Les plaintes les plus vives à ce sujet proviennent de personnes qui veulent publier des choses horribles et qui sont tristes lorsque la bureaucratie de Twitter finit, parfois, par leur dire qu’elles n’y sont pas autorisées. Le vrai problème de cet arrangement, cependant, est qu’il modifie ce que les gens pensent du consentement et du contrôle de nos propres voix. Les universitaires et les publicitaires qui souhaitent étudier les propos, les graphiques sociaux et les données démographiques des utilisateurs de Twitter n’ont qu’à demander la permission à la société Twitter. Ils peuvent prétendre que, légalement, Twitter a le droit de faire ce qu’il veut de ces données et que, éthiquement, les utilisateurs ont donné leur accord pour que ces données soient utilisées de quelque manière que ce soit lorsqu’ils ont coché la case « J’accepte » des conditions de service. Il s’agit bien sûr d’une idiotie complète (les Condition Générales d’Utilisation sont impénétrables, changent sur un coup de tête, et le déséquilibre des pouvoirs est énorme), mais c’est pratique. Les chercheurs se convainquent donc qu’ils y croient, ou bien ils s’en fichent tout simplement.

Cette attitude a évolué avec le nouvel afflux. On proclame haut et fort que les avertissements de contenu sont de la censure, que les fonctionnalités qui ont été délibérément non mises en œuvre pour des raisons de sécurité de la communauté sont « manquantes » ou « cassées », et que les serveurs gérés par des bénévoles qui contrôlent qui ils autorisent et dans quelles conditions sont « excluants ». Aucune considération n’est donnée à la raison pour laquelle les normes et les possibilités de Mastodon et du Fediverse plus large existent, et si l’acteur contre lequel elles sont conçues pour se protéger pourrait être vous. Les gens de Twitter croient au même fantasme de « place publique » que la personne qu’ils sont censés fuir. Comme les Européens du quatorzième siècle, ils apportent la contagion avec eux lorsqu’ils fuient.

Anarchisme

L’ironie de tout cela est que mon « fil de discussion viral » était largement consacré à la nature anarchiste et consensuelle du Fediverse. Beaucoup de nouveaux arrivants ont vu très vite que les administrateurs de leurs serveurs se battaient héroïquement pour que tout fonctionne, et ont donné de l’argent ou se sont inscrits sur un compte Patreon pour s’assurer que les serveurs puissent continuer à fonctionner ou être mis à niveau pour faire face à la charge. Les administrateurs se sont envoyés des messages de soutien privés et publics, partageant des conseils et des sentiments de solidarité. Les anciens partageaient des #FediTips pour aider à orienter les comportements dans une direction positive. Il s’agit, bien sûr, d’entraide.

C’est très excitant de voir autant de personnes expérimenter des outils sociaux en ligne anarchistes. Les personnes intelligentes qui ont conçu ActivityPub et d’autres protocoles et outils Fediverse l’ont fait de manière à échapper à la prédation monopolistique. Le logiciel est universellement libre et open source, mais les protocoles et les normes sont également ouverts et extensibles. Alors que beaucoup seront heureux d’essayer de reproduire ce qu’ils connaissent de Twitter – une sorte de combinaison de LinkedIn et d’Instagram, avec les 4chan et #auspol toujours menaçants – d’autres exploreront de nouvelles façons de communiquer et de collaborer. Nous sommes, après tout, des créatures sociales. Je suis surpris de constater que je suis devenu un contributeur régulier (comme dans « contributeur au code » 😲) à Bookwyrm, un outil de lecture sociale (pensez à GoodReads) construit sur le protocole ActivityPub utilisé par Mastodon. Ce n’est qu’une des nombreuses applications et idées dans le Fediverse élargi. D’autres viendront, qui ne seront plus simplement des « X pour Fedi » mais plutôt de toutes nouvelles idées. Alors qu’il existe déjà des services commerciaux utilisant des systèmes basés sur ActivityPub, une grande partie des nouvelles applications seront probablement construites et exploitées sur la même base d’entraide et de volontariat qui caractérise actuellement la grande majorité du Fediverse.

Chagrin

Beaucoup de personnes ont été enthousiasmées par ce qui s’est passé cette semaine. Les nouveaux arrivants ont vu les possibilités du logiciel social fédéré. Les anciens ont vu les possibilités de la masse critique.

Mais il est important que ce ne soit pas la seule chose qu’on retienne du début de novembre 2022. Mastodon et le reste du Fediverse peuvent être très nouveaux pour ceux qui sont arrivés cette semaine, mais certaines personnes œuvrent et jouent dans le Fediverse depuis presque dix ans. Il existait déjà des communautés sur le Fediverse, et elles ont brusquement changé pour toujours.

J’ai été un utilisateur relativement précoce de Twitter, tout comme j’ai été un utilisateur relativement précoce de Mastodon. J’ai rencontré certains de mes meilleurs amis grâce à Twitter, qui a contribué à façonner mes opportunités de carrière. Je comprends donc et je compatis avec ceux qui ont fait le deuil de leur expérience sur Twitter – une vie qu’ils savent désormais terminée. Mais Twitter s’est lentement dégradé depuis des années – j’ai moi-même traversé ce processus de deuil il y a quelques années et, franchement, je ne comprends pas vraiment ce qui est si différent maintenant par rapport à il y a deux semaines.

Il y a un autre groupe, plus restreint, de personnes qui pleurent une expérience des médias sociaux qui a été détruite cette semaine – les personnes qui étaient actives sur Mastodon et plus largement le Fediverse, avant novembre 2022. La boîte de nuit a un nouveau propriétaire impétueux, et la piste de danse s’est vidée. Les gens affluent vers la fête tranquille du coin, cocktails à la main, demandant que l’on monte le volume de la musique, mettent de la boue sur le tapis, et crient par-dessus la conversation tranquille.

Nous avons tous perdu quelque chose cette semaine. Il est normal d’en faire le deuil.