Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.
Voici le troisième.
Les cas d’étude c’est bien sympa, mais cela ne donne qu’une vision partielle du fonctionnement. Aussi je vais détailler ma montée en compétence sur la modération, et celle du collectif parce que ça fait partie des solutions à mettre en place pour que se soit un boulot le moins délétère possible !
Les outils accessibles via Mastodon
Mastodon permet, pour les utilisateurices inscrites chez nous de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— supprimer un message
— limiter la visibilité du compte à ses abonnés seulement
— suspendre le compte sur un temps restreint
— supprimer le compte définitivement
— contacter l’utilisateurice par message privé
— contacter l’utilisateurice par mail
— bloquer un Mastodon entier (!!) (aussi appelé instance).
Pour les utilisateurices qui ne sont pas chez nous, il est seulement possible de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— limiter la visibilité du compte à ses abonnés
— bloquer le compte
— contacter l’utilisateurice par message privé.
Lorsqu’une personne effectue un signalement, nous recevons une notification par mail si :
— la personne faisant le signalement se trouve chez nous
— la personne signalée est chez nous ET que la personne ayant fait le signalement a demandé explicitement à ce que nous le recevions.
Les signalements les plus importants à gérer étant évidemment ceux concernant des personnes se trouvant sur notre (instance de) Mastodon et ayant un comportement problématique. Actuellement, la majorité des signalements pour lesquels nous sommes notifiés sont faits par une personne inscrite chez nous à propos de contenus qui se trouvent ailleurs, sans doute pour prévenir les modérateurices de l’autre Mastodon qu’il y a quelque chose à regarder de leur coté.
Au fur et à mesure du temps, j’ai l’impression que si les signalements ne sont pas liés à du contenu chez nous, et ne sont pas explicitement problématiques, on peut laisser la responsabilité d’agir aux modérateurices des autres instances.
L’important étant de bien s’occuper de ce qui se trouve chez nous. 🙂
Comment ça se passe ?
Donc une fois la notification par mail reçue, on se connecte à un compte avec les droits de modération (pour certains leur compte personnel, pour d’autres le compte de modération que nous avons créé à la sortie de la charte pour avoir un compte dédié à ce sujet). Nous avons accès à une interface récapitulant le compte concerné, les contenus signalés, le message du signalement expliquant pourquoi il a été effectué (extrêmement important car sinon on perd énormément de temps à comprendre ce qui est reproché) et quelques autres indicateurs (notamment le nombre de signalements déjà effectués, pratique pour repérer les récidivistes).
Démarre ensuite dans la grande majorité des cas un travail d’enquête afin de comprendre le contexte. C’est une action extrêmement chronophage mais qui nous permet de savoir si la personne a une façon de se comporter correcte, un peu pénible ou carrément problématique, ce qui va influencer le niveau de sévérité de l’action de modération.
Si nous avons de la chance, il suffit de parcourir une dizaine de contenus, mais parfois la personne a partagé des vidéos, et il est nécessaire de regarder l’entièreté de la vidéo pour se rendre compte de son caractère problématique… ou non. C’est comme cela que je me suis retrouvée à regarder vingt minutes d’une vidéo célébrant le Brexit où se trouvaient Asselineau, Nicolas Dupont-Aignan, Florian Philippot. Quel excellent moment.
C’est ce travail de contextualisation qui explique pourquoi il est extrêmement important, lorsque vous réalisez un signalement, de mettre le plus de détails possibles : quels sont les contenus incriminés ? Pourquoi pensez-vous que cela mérite une action de modération ? Trop souvent nous avons un signalement composé d’un seul pouet, hors contexte, qui nous oblige à nous y attarder bien plus que si on nous avait fourni des explications détaillées. (Merci pour nous !)
Une fois cette contextualisation réalisée, il est temps de se décider… est-ce qu’il y a quelque chose à faire ? Est-ce qu’on supprime les contenus incriminés ? Est-ce qu’on contacte la personne ?
À Framasoft nous avons un tchat dédié à la modération, dans lequel nous partageons notre analyse du contexte, le signalement, et nous proposons l’action ou les actions qui nous semblent les plus appropriées. L’idée est de pré-mâcher le travail aux copaines tout en n’ayant pas à porter seul le poids de la décision de la « bonne » action de modération à réaliser.
Donc une fois que j’ai une idée de ce qui me semblerait « le mieux » à faire (ou pas), je demande leur avis aux copaines sur ce tchat. Il y a ensuite un petit temps d’attente nécessaire, pas problématique dans la plupart des cas mais très stressant quand la situation revêt un caractère « d’urgence », et que quelques heures comptent (par exemple si quelqu’un commence à se prendre une vague de harcèlement, plus vite on peut la protéger mieux c’est).
Si on n’est pas d’accord, on discute, jusqu’à tomber d’accord ou ne pas tomber d’accord et utiliser la règle du « c’est qui qui fait qui décide ». Donc si on se dit « cette personne il faudrait la contacter pour lui expliquer » mais que personne n’a l’énergie de rédiger quelque chose… ben on fait différemment en choisissant une action qui tient compte du niveau d’énergie des modérateurices.
Et enfin, on réalise l’action de modération « finale » qui, si elle est technique, est hyper rapide (nonobstant un petit message pour prévenir si on a envie d’en faire un), mais qui si elle est dans la « communication » n’est que le début du chemin !
J’espère que cela vous permet de davantage mesurer l’effort invisible qu’est la modération : Recevoir la notification, Identifier le niveau d’urgence, Contextualiser, Synthétiser, Trouver une décision juste, la Soumettre au collectif, Attendre les retours, Discuter, Agir, peut-être Répondre… 9 à 10 étapes qui ne sont vues de personne, excepté si les contenus ou le compte sont purement et simplement supprimés. Il est donc très facile de dire que « rien » n’est fait alors que ça s’active en coulisses.
De plus, dans un monde où tout et n’importe quoi est « urgent » autant vous dire que ça n’est pas facile de prendre le temps de décider sereinement d’une action la plus juste possible alors que précisément, cela demande du temps de ne pas réagir sur le coup de l’émotion !
L’anonymat des modérateurices
Lorsque j’ai débuté la modération, j’avais dans l’idée qu’il était important que les modérateurices soient clairement identifié·es pour qu’il soit plus simple de savoir d’où iels parlent. Non seulement pour savoir si iels sont directement concerné·es par certaines oppressions systémiques, mais aussi pour pouvoir avoir un œil sur leur niveau de déconstruction (ce n’est pas parce qu’on est une meuf et donc qu’on subit le sexisme que cela nous donne un badge « a déconstruit le patriarcat », loin de là).
J’en suis complètement revenue, ou plutôt j’ai bougé sur ma position : ce ne sont pas les individus qu’il faut connaitre, mais la position d’un collectif, et savoir si on a envie de faire confiance à ce collectif… ou non !
Pourquoi ce changement ? Déjà parce que lors de la vague de harcèlement que nous avons subie à la publication de la charte, la violence était très intense alors que je n’étais pas directement citée : c’était le compte de l’association (@Framasoft@framapiaf.org) qui l’était, et je ne voyais que ce qui tombait dans mon fil ou ce que j’allais voir de moi-même (enfin en étant sous le coup de la sidération, moment où l’on a pas toujours les bonnes pratiques : maintenant je ferme l’ordinateur pour m’éloigner du flot).
Si j’étais frustrée de ne pas pouvoir mettre de visage « humain » sur les personnes qui avaient écrit cette charte, j’ai surtout été très protégée par mon anonymat du moment. Et j’ai pu choisir, en mes termes et dans un timing que j’ai choisi, de partager mon ressenti sur la situation (avec l’article intitulé Dramasoft du nom du hashtag utilisé pour l’occasion).
Et je me souviens que je savais très clairement que je prenais un grand risque en communiquant sur ma participation à cette charte (et j’ai fait attention à ne pas parler des actions de modération en tant que telle dans un espoir de limiter l’impact). Le fait d’en contrôler la totalité de la publication, quand, sur quel support, auprès de qui, quand je me suis sentie prête, m’a énormément protégée.
Je reviens d’ailleurs sur une partie de ce que j’ai énoncé au-dessus, l’importance de
savoir si iels [les modérateurices] sont directement concerné·es par certaines oppressions systémiques
Je pense à présent qu’il est très problématique de penser pouvoir regarder un·e individu pour se permettre de juger de si iel ferait un·e bon·ne modérateurice : ce sont les actions et la direction dans laquelle se dirige le collectif qui compte. Nous ne pouvons pas déterminer, de par quelques pouets ou contenus partagés, si une personne est « suffisamment » déconstruite ou non.
Pire, cela nous encourage à faire des raccourcis, qui peuvent être d’une violence inouïe. Aussi, il nous a par exemple été reproché de concevoir une charte pour des enjeux de modération dont nous n’avions pas conscience, notamment parce que nous n’avions pas de personnes concerné·es par les oppressions systémiques dans l’équipe (qui seraient composés de mecs cis, het, blancs…).
Déjà c’est faux, car il y a des femmes qui subissent le sexisme qui en font partie (dont moi par exemple !) mais surtout parce qu’il n’est pas possible de savoir quel est le contexte et l’identité de chacun·e des membres, et notamment si certain·es seraient par exemple dans le placard, cachant soigneusement leur identité ou orientation sexuelle.
Rendez-vous compte de la violence, pour quelqu’un qui n’a pas fait son ou ses coming-out, de recevoir de la part d’adelphes qui sont dans le même groupe oppressé qu’elle un message sous entendant qu’elles ne sont pas légitimes puisqu’elles ne sont pas out. La violence est infinie, et je crois que c’est ce qui m’a mise le plus en colère dans cette histoire, car je ne pouvais pas vérifier si des membres étaient touché·es par ces accusations (puisque n’ayant pas fait leur coming-out… vous m’avez comprise).
Aussi, à nouveau, je pense que la solution repose sur le collectif, pour pouvoir à la fois s’adresser à quelqu’un tout en protégeant les individus.
À Framasoft, nous avons publié cette charte et ouvert un compte modération derrière lequel chaque membre peut lire les messages, et nous agissons pour des personnes qui nous font confiance. Plus récemment encore, nous avons re-partagé notre vision du monde dans notre manifeste, sans compter les nombreuses conférences et articles de blog qui expliquent comment nous nous positionnons. Si cela ne suffit pas aux utilisateurices, ils peuvent nous bloquer ou aller ailleurs, sans animosité de notre part : nous faisons avec nos petits moyens.
Le temps passé
Une question qui m’a été souvent posée c’est : Combien de temps vous y passez, à faire de la modération ?
Alors déjà il y a une grosse différence de temps passé entre le moment de mise en place de la charte de modération, et maintenant.
Lors de la mise en place de la charte et environ un an ensuite, nous étions sur quelques heures par semaine. Actuellement, c’est plutôt quelques heures par mois, et pour des cas moins complexes à gérer (même si on n’est pas à l’abri d’une vague de harcèlement !). Et c’est à mettre au regard du nombre : 1600 utilisateurs actifs chez nous, 11 000 inscrit·es (donc beaucoup de comptes en veille) et 6 millions d’utilisateurs au total sur tout le réseau.
Cette immense différence s’expliquer par deux raisons :
– Nous avons viré tous les relous.
– Nous avons fermé les inscriptions, et donc il n’y a plus de nouveaux.
Les utilisateurices qui restent sur framapiaf sont celleux qui ne nous demandent pas trop de boulot, et donc on s’en sort bien !
Mais je pense que même sur une instance dont les inscriptions restent ouvertes, on doit gagner en tranquillité grâce aux blocages d’instances déjà effectués et à la montée en compétence de l’équipe de modération (si l’équilibre est entretenu pour que les modérateurices restent, ça veut dire que le collectif en prend suffisamment soin !).
Note : Si les chiffres d’Olivier Tesquet sont bons (je n’ai pas vérifié), il y a en fait sur Mastodon une bien meilleure façon de modérer que sur Twitter parce que les modérateurices seraient juste… plus nombreuxses ?
Mastodon compte aujourd’hui 3615 instances, c’est à dire 3615 politiques de modération potentiellement différentes.
Au passage, ramené au nombre d’utilisateurs actifs, ça fait au moins un modérateur pour 250 mastonautes. Sur Twitter, c’est un pour… 200 000.
Et après ?
C’est l’heure de faire un petit bilan de cette triplette d’articles ! Ce sera dans le prochain épisode !
Collectivise the Internet : Three years to Ruffle the Feathers of Surveillance Capitalism
If the major issue in the digital world is systemic (a system called Surveillance Capitalism), then the answer cannot be limited to » individual degoogleizing initiatives ». Our new roadmap Collectivise the Internet / Convivialise the Internet🦆🦆 is all out on providing digital tools for non-profit organizations and collectives that work for the common good and the good of the Commons.
Emancipating Ourselves from Googles’ Industrial Animal Farmland
At Framasoft, we learn by doing. With every new campaign, with every new three-year roadmap, we try to apply lessons from the past. And every time, we discover more about our own misconceptions, our mistakes and ways forward to fix them.
During the Degoogleize The Internet campaign (2014-2017), we have learned that, although our small association could not degoogleize the whole planet, there is still a great deal of people who show interest in web-based tools that respect their values and integrity. Providing Free and open-source services to a as many people as possible ensures a large-scale deployment, even if that means risking focusing the demand and expectations on us. During this time period, we also initiated the alternative hosting collective CHATONS (an acronym that also means « kitties », in French), so that other hosts could join us in this adventure.
Then, we started the Contributopia roadmap (2017-2020), in which we contributed to many collective, popular and federated project, therereby meeting like-minded contributors, with whom we share the common values of sharing, fairness, caring, and emancipation, free and open-source software (FOSS) values that attracted us. We’ve come to realize, walking down this path, gathering and relating, that digital choices are societal choices, and that the choices made by FANGs are the pillars of a system: surveillance capitalism.
Entire books are merely attempting to define what surveillance capitalism is, so what we are sharing here is just a rough summary of what it actually is. Surveillance capitalism is a system that transforms collective behaviours into data sets by prioritizing profit and power above all. The aim is to sell prediction and manipulation of our future behaviours, generally as commercial, cultural or electoral propaganda. In order to do so, some mega corporations try to establish monopolies on digital tools that maximize the acquisition and monopoly on our attention.
Simply put, surveillance capitalism creates industrial data farms, where we are the cattle. On the one hand, we are force-fed with attention mush (enriched with ads), and, on the other, part of our lives and our social behaviours are snatched from us to be resold to prosperous buyers at premium price.
That is why, at Framasoft, we have developped tools designed away from the values pushed by this system. Among the solutions we developed are PeerTube, a video platform software, and Mobilizon, a group and events management system. However, these tools require an entire group of people managing, maintaining, drafting and ensuring its editorial policy, and moderating: many small organizations do not have the human ressources to handle this in-house.
Requiring digital tools that do not give goose bumps
From 2019 to 2022, we also ran the Déframasoftisons Internet action plan. We closed several projects which were underused or available through other trusted « CHATONS » hosts. This allowed us to save some energy for future projects, to reinforce our will to take care of our organization by avoiding unreasonable growth or restructuring that would disrupt our collective and the way it operates – which has made us pretty effective so far! – but especially to promote the decentralization of ethical digital tools.
Between 2020 and 2022, right in the middle of a gobal pandemic that confirmed our general dependency on online services, we intensified our efforts in maintaining our actions. Incidentally, we revised our plans for « Let’s deframasoftize » and chose to maintain some of the tools we intended to restrain or close: Framalistes, Framagit, Framateam, Framacalc…. We made that choice because we could see little to no other alternatives, and we did not want to let so many people down.
During this period of forced isolation, a pressing need began to be voiced more and more:
I am willing to ‘degoogle-ize’ myself, but I need someone to assist me, who can be here, in person to help me throughout this transition.
We have been hearing this need for this kind of human, tangible support for a while, and this is not unexpected. One of the mechanisms of capitalism is to individualize (« the customer is always right ») so as to better isolate and place the responsibility on each of us. For example, the information that we name « personal data » is neither personal nor data: it is more accurately the digital harvesting of our lives linked to those of others. Those are our social behaviours.
Conversely, if so many organizations, federations, etc. are so efficient in their task for the common good (whether they help us discover knitting or fighti climate inaction), it is precisely because they rest on the enjoyment of being and doing together, on the joy of meeting and exchanging, on the human warmth we find in the collective.
This future that surveillance capitalism is designing for us as we speak, is neither engaging nor sustainable.. It treats both people and the Earth as a liability and will lead us straight to destruction.
On the other hand, trying to step out of our comfortable FOSS-enthusiasts’ bubble to try and reach out to other communities that are changing the world, has proved to be not as desorienting as we might have thought. We found that oftentime we shared the same utopias and the same definition of society: one based on contributing.
These « Contributopians » share the same dream as us: a future where humans are proud, autonomous, emancipated, knowledgeable, sharing and helpful to each other… a future where digital tools are under control, transparent, user-friendly and enhance the emancipation of human beings.
Thus, let’s summarize the lessons learned from our previous endeavours:
We did not yet have tools that fit the needs of the small organizations and associations that do so much with so little, but most of all with a lot of good will.
We are aware of the risk of remaining isolated, singled out in our « small, individual ‘degoogleization’ initiatives » against a whole system that can only be faced effectively through collective action.
We can see how crucial it is to put humans back at the center, the need for human presence and kindness when assisting others throughout their transition towards ethical digital practises.
We have been able to confirm that a good number of associations and organizations from civil society which are working for the commons share with us these common values.
These patrons/champions of a « society of contribution » work hard to make our common dreams a reality.
Long story short: it’s high time we degooglized the Contributopians!
(… those who wish to be, of course. We have never forced anyone to do anything, and we won’t start now!)
The four long-term actions we introduced in the article « Convivialise the Internet » 🦆(Framaspace, Émancip’Asso, ECHO Network, Peer.tube) all serve the same purpose: to equip organizations with online tools that fit their values.
These four projects rely on the strength of the collective while also taking into account the known constraints and limits that associations face. Kindness alone cannot magically and miraculously provide people with knowledge, time and means to train to use Nextcloud, PeerTube and other ethical tools.
Similarly, the 39 members that compose Framasoft (10 of whom are employees) cannot spawn everywhere to personally train each and every new organization that wants to use, let’s say Framaspace, especially as that number could rise – with the help of your generous donations – up to thousands of organizations within 3 years!
That is why all of these projects are both about building a sense of community through shared spaces and some time allocated to community-building activities and sharing practices, challenges, etc., and providing support via coaching, improvements tailored for specific needs, and learning content to help people to be more autonomous and master the different tools, etc. Going blindly ahead with preconceived notions and a “we know best what works best for you” kind of attitude does not seem to be the most suitable — let alone humane — approach.
We want to be efficient, so we want our tools to actually be used. Our goal is thus to make our tools useful – yeah, because designing tools that are actually useful is what disruptive innovation is all about, to make Tech for good that is community-owned and still very much online!)
We are thus planning not to plan everything, except time and space dedicated to your feedback. We also want to be available to tackle issues we might face on each of the actions that we feel ready to take. In other words, if we already plan to develop new features, create tutorials, host webinars and draft learning content, we do not want to predefine everything upfront, so as to save some time to help our users, our main target.
This is the virtuous circle that we defined over the course of our various experimentations and that best fits our workflow:
1. Launch a first draft of our project, although imperfect
It’s OK if the paint is still fresh, or if it’s still a rough sketch. It’s absolutely OK too to start with a very small target audience. We have 3 years ahead of us to improve all that, and we have time and resources in store to do so.
For example, while we hope to provide millions of organizations with Framaspace within 3 years, it will be a good start to offer it to 200-300 organizations by the end of 2022!
2. Take users’ feedback into account
The Frama.space forum, the PeerTube community the study programs on ECHO Network and the comments received on Emancip’Asso are all important resources to gather feedback on our tools. It’d be too easy to lock ourselves in an echo chamber and avoid the reality of those who are actually fighting on the battlefield.
We go as far as considering the creation of an Observatory of Practices and Free Open-Source Digital Experiences, basing ourselves on the organizations that make up the Frama.sapce user community. Codename: OPEN-L. Stay tuned for that… And let’s hope we manage to set it up!
3. Improve our solutions step by step
Our goal is to improve each of those actions over time. This could be done by creating documentation and pedagogical tools, moderating and facilitating user communities, working on the ergonomy or on new features to be developed.
We want to keep total freedom to improve each action depending on the feedback we get from users.
4. Link humans to tools, and to other humans
Here’s another important, yet often overlooked aspect: connections. Such a shame, considering that the Web is, by definition, designed to connect people, ideas and things. This step can take many forms. It may mean taking the time to introduce our users to the new improvements brought about by each of our actions. It may also mean broadening our user community for any given project. Finally, it may mean taking advantage of having organizations share a common tool by sharing with them, offering them and informing them on what their fellows are doing.
Additionally, it will take some journaling: to summarize experiences, the lessons learned, to gather the relevant resources… and share all of that with the community. Whatever the form, this connecting step is when we take the time to reflect, to review our actions so as to better start a new virtuous circle and launch a better version of the project.
Ain’t gonna beat around the bush: Collectivise the Internet / Convivialise the Internet 🦆🦆 is a roadmap with a clear political purpose, in the sense that it shall contribute to changing the world (if only one byte at a time).
After eight years spent observing and informing the public on the future that Big Tech is already materializing for us day by day and the political choices that they are forcing on our societies, it feels more and more crucial to keep one corner of the Web free from their influence.
Such is « also » our role, because these new actions do not and will not replace the ones we are already conducting. All the ‘degoogleized » software already available to everyone, the development of PeerTube and Mobilizon, the FOSS collective CHATONS, the common cultural resources… All of these projects are still ongoing and will still require more work over the upcoming three years.
If you agree with our set goals and strategy, if the actions that we are currently undertaking seem important to you, then we would like to remind you that Framasoft is exclusively funded by… You. It is only your kind contributions, eligible to a 66% tax cut for French taxpayers, that allow us to keep going in total independence.
If you can (as we are well aware that our current times are particularly harsh), and if you wish to, please support us.
This page has been translated from French to English by Framalang volunteers: Bastien, Bromind, Ellébore (proofreading), Goofy, GPSqueeek, Mathilde (proofreading), Stan, Susy
L’aventure de la modération – épisode 2
Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.
Voici le deuxième.
Maintenant que je vous ai fait une introduction de six pages, c’est le moment de passer au concret : Comment est-ce que se déroule la modération ?
Les cas simples : les fachos, les mascus, l’extrême-droite
De façon surprenante, j’ai découvert que tout ce qu’il y a de plus délétère sur les réseaux sociaux capitalistes, c’est à dire en résumé : les comptes d’extrême-droite, étaient très simples à modérer.
Nous en avons eu un exemple lors de l’été 2018. Twitter a réalisé une vague de fermeture de comptes de mascus provenant du forum tristement connu de jeuxvideo.com, surnommé le 18-25. Comme souvent, ces personnes crient à la censure (…) et cherchent un réseau social alternatif dont la promesse serait de promouvoir une liberté d’expression leur permettant de dire les atrocités qu’ils souhaitent.
Ils débarquent donc sur Mastodon, avec un schéma qui a été le suivant :
1° Première inscription sur le premier Mastodon trouvé
Les 18-25 étant majoritairement francophones, ils se sont retrouvés souvent sur mamot.fr et parfois chez nous en s’inscrivant sur framapiaf.org, parfois sur mastodon.social qui est le Mastodon proposé par le développeur principal.
Nous avons donc pu commencer une première vague de bannissement en suivant les profils des nouveaux inscrits, et leurs premiers contenus qui concourraient au prix de « qui dit les choses les plus atroces ».
Nous avons fermé les inscriptions momentanément pour endiguer le flot, et peut-être avons nous à un moment viré massivement les nouveaux comptes.
« Quoi ?! » vous entends-je dire, « mais c’est en opposition totale avec le point 3 de la charte » !
Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.
Ma réponse est donc « vous avez raison » suivie d’un « et nous sommes humains donc nous faisons ce que nous pouvons, en commençant par nous protéger ».
Je ne me souviens pas vraiment de notre façon de modérer à ce moment là : avons-nous attendu que chacun poste quelque chose de problématique avant de le virer ? Ou avons-nous agi de façon plus expéditive ? Même si nous étions dans le second cas, nous étions sur un grand nombre de compte qui venaient de façon groupée pour revendiquer une « liberté d’expression » leur permettant de dire des horreurs… Il n’y a à mon avis pas besoin d’attendre que chacune de ces personnes indique quel est sa façon de penser alors qu’elles viennent massivement d’un endroit (le forum de jeuxvideo.com) qui porte une vision de la société délétère.
Donc peut-être qu’on n’a pas respecté strictement la charte sur ce moment là, et encore une fois, je préfère protéger les membres de l’association et les utilisateurices en faisant preuve d’un peu d’arbitraire, plutôt que de suivre une ligne rigide.
2° S’inscrire sur un autre Mastodon
Après leur premier bannissement, des informations sur le fonctionnement décentralisé de Mastodon ont circulé. Les nouveaux arrivants se sont donc inscrits sur une autre instance, et ont plus ou moins rapidement été bannis une nouvelle fois.
C’est alors que des personnes du fédiverse ont expliqué à ces personnes qui se plaignaient de la fameuse « censure » qu’ils pouvaient monter leur propre Mastodon, et y appliquer leurs propres règles.
3° Monter une instance Mastodon rien que pour les 18-25
Sitôt dit, sitôt fait, les nouveaux arrivants s’organisent, montent leur Mastodon (soit grâce à leurs compétences techniques, soit grâce à un service qui propose de le faire) et s’y inscrivent tous.
Victoire ! Leur instance Mastodon, leurs règles, plus personne ne les bannira !
Quand à nous, nous n’avions plus qu’à appuyer sur le bouton « Bloquer l’instance » pour nous couper de ce Mastodon dédié au 18-25. Problème réglé.
Alors je ne voudrais pas vous faire croire que cette cohue s’est faite sans effet problématique. Déjà parce que je ne connais pas ses effets sur tous les utilisateurices de Mastodon, mais aussi parce que les 18-25 ont eu le temps de poster des contenus très violents, le point culminant étant une photo de la salle du Bataclan le soir du 13 novembre, remplie de cadavres. Je n’ai pas vu cette image mais un ami de l’association oui, et je maudis notre manque d’expérience pour ne pas avoir pu empêcher qu’il soit confronté à cette image horrible.
Mais de façon générale, tous les discours de haine sont vraiment aisés à modérer. Juste : Ça dégage. Fin de la discussion.
Là où ça devient difficile, se sont sur les cas qui jouent avec les limites.
Cas limites : quand une personne est… pénible
Je pense que c’est ce type de cas qui nous a valu une réputation de « mauvaise modération » : certaines personnes qui ne posaient pas de problème légaux, n’étaient pas agressifs au sens strict du terme ou ne partageaient pas de contenu violent, mais qui étaient… relous.
Un peu de mansplanning par ci, une discussion sur un sujet d’actualité avec une position moralisante par là… Bref, tout ce qui fait plaisir à lire (non) sans réellement mériter de couperet de la part de la modération.
Nous sommes arrivés à un point où les salariés qui faisaient de la modération avaient masqué le compte depuis leur profil personnel, mais ne se sentaient pas légitimes à le virer de notre Mastodon puisque rien de suffisamment répréhensible n’avait été fait.
Maintenant que j’ai un peu de recul, je peux dire que nous avons deux postures possibles dans ce cas, chacune nécessitant un travail de contextualisation lié au compte : quelle description du compte ? Quels contenus partagés ? Dans quelle ambiance est la personne ? Ça n’est pas la même chose si la personne écrit dans sa biographie « Mec cis-het et je vous emmerde » que si il est écrit « Faisons attention les un·es aux autres ».
Bien sûr, rien n’est strictement « éliminatoire », mais chaque élément constitue un faisceau d’indices qui nous pousse nous-même à passer plus ou moins de temps à prendre soin de la personne, de façon équivalente au soin que cette personne semble mettre dans ces échanges sur le média social.
Si la personne semble globalement prendre soin, mais a été signalée, nous pouvons décider de rentrer en discussion avec elle. C’est une option intensément chronophage. On pourrait se dire que pour trois messages de 500 caractères, pas besoin d’y passer trop de temps… au contraire !
Autant que possible, chaque message est co-écrit, relu, co-validé avant d’être envoyé, afin de s’assurer que le plus de personnes possibles de l’équipe de modération soient en accord avec ce qui y est écrit, le ton donné… et cela dans un temps le plus réduit possible histoire que l’action de modération ne date pas de quinze jours après le contenu (c’est parfois ce qui arrive). Or les membres de l’équipe sont pour beaucoup bénévoles, ou sinon salarié⋅es avec un emploi du temps très chargé.
Il faut aussi pas mal de relecteurices pour éviter LE truc qui fait perdre trois fois plus de temps : se faire mal comprendre par la personne à laquelle on écrit. Et là… c’est le drame !
Une autre option, ressemblant à celle-là mais avec moins de précautions de notre part est d’utiliser notre position d’autorité « Nous sommes la Modération » pour signaler aux personnes que nous comptons sévir en cas de récidive.
Cependant, si la personne ne semble pas intéressée par le fait de prendre soin des autres personnes, nous avons une astuce pour ne pas retomber dans le cycle infernal du « est-ce qu’on devrait faire quelque chose ou non ? » : le « ça prend trop d’énergie à l’équipe de modération ».
Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.
En effet, c’est un indicateur qui nous permet de ne pas « boucler » trop… si l’on est plusieurs à se prendre la tête sur un signalement, alors que notre énergie serait mieux ailleurs… alors on décide souvent que cela suffit pour mériter un petit message disant en gros « Bonjour, vous prenez trop de temps à l’équipe de modération, merci d’aller vous installer ailleurs ». Cela nous a sorti de maintes situations délicates et c’est une félicité sans cesse renouvelée que de pouvoir citer cette partie de la charte.
Cas limites : quand la revendication est légitime
Autre cas compliqué à gérer : les différents moments où les personnes ont une revendication dont le fond est légitime, mais où la forme fait crisser les dents.
Par exemple, revenons sur la réputation de Framapiaf d’avoir une mauvaise modération (ou une absence de modération ce qui revient au même).
Clarifions un instant les reproches qui me semblent étayées de celles pour lesquelles je n’ai pas eu de « preuve » :
— Il a été dit que nous ne faisions pas de modération, voire que nous ne lisions pas les signalements : c’est faux.
— Par contre, comme expliqué dans le cas au-dessus, nous n’étions pas outillés et expérimentés pour gérer des cas « limites » comme ceux au-dessus qui ont entraine une pénibilité dans les interactions avec de nombreuxses utilisateurices.
Nous avions donc bien un manque dans notre façon de faire de la modération. Si vous avez déjà les explications du « pourquoi », je tiens à dire que cela ne nous empêche pas de nous rendre compte que cela a été pénible pour d’autres utilisateurices.
Cependant, la façon dont le problème nous a été remonté l’a été de façon souvent agressive, parfois violente car insinuant des choses à propos de nos membres (qui ne seraient que des personnes non concernées par les oppressions… et c’est faux !).
Aussi, comment traiter ce sujet, qui porte des valeurs avec lesquelles nous sommes aligné·es (protéger les personnes des relous, facile d’être pour…) mais qui dans le même temps, nous agresse également ? Et comment faire cela sans tomber dans le tone policing, argument bien trop utilisé pour couper court à un débat en tablant sur la forme plutôt que le fond ?
Tone-policing : littéralement « modération du ton ». Comportement visant à policer une discussion ou un débat en restreignant ou en critiquant les messages agressifs ou empreints d’une forte charge émotionnelle.
Voici mon point de vue : au vu de notre petite taille, nos faibles capacités humaines (des salariés qui font mille choses, des bénévoles), que notre structure est à but non lucratif (donc n’est pas là pour faire du bénéfice pour enrichir quelqu’un) et notre posture d’écoute que nous essayons d’équilibrer avec notre énergie disponible, il n’est pas OK de mal nous parler sauf cas exceptionnel.
Alors bien sûr les cas exceptionnels, ça se discute, ça se débat, mais en gros, à part si nous avons sérieusement blessé quelqu’un de par nos actions, il est possible de nous faire des critiques calmement, sans faire preuve de violence.
Et dans un souci d’équité, nous faisons l’effort de creuser les arguments de fond quand bien même la forme ne nous plait pas, afin de vérifier si les reproches que nos recevons sont des critiques avec de la valeur et de l’agressivité, ou seulement de l’agressivité.
Cela peut vous sembler étrange de passer du temps là-dessus, mais tant que vous n’êtes pas dans l’association, vous ne vous rendez pas compte de la quantité de gens qui la critiquent. Chaque semaine, des personnes nous signalent par exemple qu’elles sont désespérées par notre utilisation de l’écriture inclusive alors que nous l’utilisons depuis plus de quatre ans. Ou régulièrement parce que nous sommes trop politiques. Alors oui, des reproches agressifs nous en avons régulièrement, mais des critiques constructives, c’est malheureusement bien plus rare.
Donc que faire face à cela ? Eh bien mettre le soin au centre pour les personnes qui reçoivent les agressions. Alors encore une fois, je ne parle pas de soutenir les méchants oppresseurs agressifs envers qui on serait en colère, il ne s’agit pas de ça. Il s’agit de réussir à voir chez une personne de notre archipel qu’elle a fait une erreur, tout en prenant soin de l’humain qui a fait cette erreur.
Nous voulons prendre soin : de nous, d’autrui, et des Communs qui nous relient
Parce que personnellement j’ai vu que se faire agresser alors que l’on fait honnêtement de son mieux n’entraine qu’un repli sur soi, coupant la personne de son désir de contribuer à un monde meilleur, parce qu’elle a été trop blessée.
Et bien sûr, l’équilibre entre protéger les personnes blessées et celles qui blessent sans le vouloir est extrêmement difficile à tenir. Il faut donc réussir à faire preuve de franchise : oui, là, tu ou on aurait pu faire mieux. À partir de maintenant, comment on fait pour que se soit possible de faire mieux ?
Inutile de dire que non seulement ça prend du temps, mais c’est aussi carrément risqué, car on peut se mettre à dos par effet domino tout le groupe dont les membres exprimaient directement cette agressivité, ou indirectement par du soutien aux contenus en questions. Que du bonheur !
Les autres cas…
Alors oui il y a des robots, mais ça c’est un peu pénible mais vite résolu.
Il y a aussi des spécificités liées à Mastodon : comment gérer des contenus qui sont sur un autre Mastodon, auquel vous êtes connectés, et qui sont illégaux dans votre pays mais légaux dans d’autres ? On prend souvent l’exemple dans ce cas du lolicon : les dessins « érotiques » représentant des mineures sont autorisés et courants au Japon, mais interdits en France. Il faut y penser !
Enfin un autre cas que vous avez en tête est peut-être le contenu pornographique. Nous n’en faisons pas grand cas ici : nous demandons à ces comptes de masquer par défaut leurs images (une fonctionnalité de Mastodon qui permet de publier la photo floutée et de la rendre nette sur simple clic) et idéalement de rajouter un #NSFW (Not Safe for Work) pour simplifier leur identification.
La suite
J’espère que ces cas un peu concrets vous permettent de mieux vous rendre compte des interstices qui complexifient le travail de modération. Mais du coté fonctionnement collectif, comment ça se passe ? Je vous raconte ça dans l’article numéro 3 la semaine prochaine.
L’aventure de la modération – épisode 1
Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.
Voici le premier.
Il me semble que mon parcours rassemble plusieurs spécificités qui me permettent d’analyser sous un angle particulier les différentes particularités de la modération :
Je suis une femme féministe, et une “geek”,
Je suis de gauche (= progressiste), et soutiens tous les mouvements pour plus de justice sociale,
Je suis conceptrice d’outils numériques, donc je connais le pouvoir que nous avons lorsque nous créons un produit numérique,
Je suis critique du numérique, et notamment du numérique capitaliste (de son petit nom, capitalisme de surveillance). J’enrichis cette réflexion grâce aux discussions que nous avons au sein de l’association Framasoft dont je suis membre bénévole.
J’ai fait de la modération pour un réseau social et ce réseau social n’était pas capitaliste.
C’est parti !
3615 ma vie : d’où je parle
Un ordi dès l’enfance
J’ai toujours été utilisatrice d’ordinateurs.
J’ai retrouvé récemment des photos d’un Noël où j’avais peut-être 4 ou 5 ans et où j’ai eu le droit à un ordinateur format jouet, le genre de trucs qui doit faire des chansons ou proposer des mini-jeux en répétant les mêmes phrases à voix robotique à longueur de journée. Quand j’ai vu cette image, j’ai tout de suite pensé à cette courbe qui montre que l’intérêt des enfants pour l’informatique est similaire pour les filles et les garçons… jusqu’au moment où l’on offre des ordinateurs aux petits garçons et pas aux petites filles.
La courbe montre le pourcentage de femmes diplômées dans quatre sections : médecine, droit, physique, informatique, qui augmente au fur et à mesure du temps. Mais on observe un décrochage des diplômées en informatique juste après que l’ordinateur soit promu comme un jouet pour les garçons.
Or, j’ai eu la chance d’avoir une petite sœur, aussi pas de compétition genrée au sein de la fratrie. Par la suite en 1999 nous avons déménagé en Polynésie Française et dans notre chambre d’enfants nous avions un ordinateur, un Windows 98 que nous pouvions utiliser pour jouer à de nombreux jeux vidéos avec bonheur.
Internet n’était qu’une possibilité très lointaine, réservée à mon père qui parfois tentait de m’aider à me connecter pour pouvoir accéder aux jeux de réseau… mais ça n’a jamais fonctionné (peut-être dû au décalage horaire de douze heures avec l’hexagone, je ne le saurai jamais !).
Une fois de retour en France hexagonale, mon père qui était le technicien de la maison, décède. Ma mère n’étant absolument pas intéressée par le sujet, je deviens l’informaticienne de la maison : c’est souvent moi qui installe les logiciels (par exemple le Scrabble pour jouer en ligne), qui sait comment libérer de la place sur l’ordinateur en désinstallant des logiciels (parce que je le faisais souvent sur le Windows 98, j’avais donc déjà de la pratique).
Dans mon milieu familial, si personne n’est admiratif de mes bidouilles, personne ne m’empêche de les faire et je deviens assez vite autonome. De plus, le collège porte un projet de numérisation et on offre aux 4ᵉ et aux 3ᵉ un ordinateur portable. Il est difficile de se connecter à Internet, il n’y a pas de Wifi, mais cela me permet déjà de jouer, de regarder des films de façon indépendante, bref encore plus d’autonomie pour moi !
Un début de pratique collective du numérique (forums, skyblogs, réseaux sociaux).
Plus tard au lycée, l’accès internet est plus simple (on a du wifi !) et je traine sur des forums notamment liés aux génériques de dessins animés (oui c’est un de mes trucs préférés de la vie, je ne sais toujours pas pourquoi). J’ai souvenir d’être déjà pas mal méfiante, assez poreuse aux discours de “on ne sait pas qui nous parle sur Internet”. C’est le grand moment des skyblogs, qu’on ouvre en deux clics pour raconter sa vie (quel bonheur !). Et enfin, c’est l’arrivée de Facebook qui devient un outil très répandu.
Si je n’ai pas de souvenirs de harcèlement via les réseaux sociaux, je me souviens déjà d’une pression sociale pour s’y inscrire. Nous organisions toutes nos sorties cinéma, anniversaires, soirées via les évènements Facebook, et l’une de nos amies n’y était pas inscrite… nous oubliions de la prévenir systématiquement. =/
Pour la suite je vous la fais rapide, je vieillis, c’est le temps des études que j’oriente d’abord malgré moi vers le design web (j’avais envie de faire des dessins animés mais j’étais pas assez bonne dessinatrice !).
Le début d’un lien entre politique et numérique
Je prends conscience du pouvoir mêlé à l’enfer de l’instantanéité des réseaux sociaux en 2015, au moment des attentats de Charlie Hebdo : je suis fébrilement l’actualité via le hashtag… avant de voir une vidéo de meurtre et de fermer lentement mon ordinateur, horrifiée par ce que je viens de voir. C’est une période où je fais “connaissance” avec les discours islamophobes qui superposent les raccourcis.
Je ne suis, à l’époque, pas très politisée, mais pas à l’aise avec ces discours… jusqu’à ce que je fasse connaissance avec une personne qui a un discours que je trouve très juste sur ce sujet (il doit me faire découvrir le concept d’islamophobie, ce qui est déjà pas mal). Et il s’avère que cette personne étant également dans la mouvance du logiciel libre : je découvre alors un monde numérique qui a une intention éloignée de celles du capitalisme, et notamment l’association Framasoft.
Alternatif, vous avez dit alternatif ?
Je découvre donc ce monde numérique alternatif, ou “libre” et au bout de quelques années, un réseau social alternatif : début 2018, alors que j’utilise beaucoup Twitter, une alternative nommée Mastodon se lance. Je m’y inscris, et l’utilise peu, avant de m’y constituer un petit réseau qui me fait y rester (autant que sur Twitter).
Les années passent encore, nous sommes en 2019 et on me propose de rejoindre Framasoft, ce que j’accepte ! Je découvre un collectif qui développe une réflexion très poussée sur ce qu’il y a de délétère dans la société et notamment le numérique, et qui propose des alternatives émancipatrices.
Lorsque je rejoins l’association, au printemps 2019, un sujet est brûlant au sein de l’asso comme à l’extérieur : la modération du réseau social Framapiaf.
Framapiaf ? Mastodon ? Kezako ?
En 2017, un réseau social alternatif commence à faire parler de lui : il s’agit de Mastodon.
Ce réseau social a un fonctionnement un peu particulier : il est décentralisé, en opposition a plein d’autres réseaux sociaux, notamment les réseaux capitalistes, qui sont eux tous centralisés : Il y a 1 Facebook, 1 Twitter, 1 Instagram, 1 TikTok… etc.
Il y a donc une multitude de Mastodon, proposés par une multitude de personnes, associations ou entreprises différentes.
Mais ces Mastodon sont tous connectés les uns aux autres, ce qui permet que les personnes inscrites sur le Mastodon de Framasoft peuvent tout à fait discuter avec des personnes inscrites sur les Mastodon d’autres associations, exactement comme pour les mails ! (si vous avez un mail en @orange.fr et moi un mail en @laposte.net, nous pouvons nous écrire).
Cette spécificité de fonctionnement a plusieurs intérêts, et une grand influence sur les possibilités de modération. Par exemple :
— Le modèle économique de chaque Mastodon est choisi par la structure qui le porte. Chez Framasoft par exemple, se sont les dons qui permettent de tout faire tourner.
— Les règles de modération de chaque Mastodon sont choisies par la structure qui le porte. Aussi, c’est à elle de définir ce qu’elle accepte ou n’accepte pas, en toute indépendance.
— Si les règles ou le modèle économique d’un Mastodon ne vous conviennent pas, vous pouvez… déménager sur un autre Mastodon, tout simplement !
Quel était le problème avec la modération ?
Il faut savoir que Framasoft, entre 2014 et 2019 lançait en moyenne un service par mois (framapad, framadate, framaforms…). Elle a donc lancé Framapiaf pour participer à la promotion du réseau social, sans prendre particulièrement en compte la nécessité de gérer les interactions qui se dérouleraient sur ce média social.
L’association n’était à l’époque composée que de huit salarié·es pour plus de quarante services proposés, des conférences réalisées, des interventions médias, des billets de blog, des campagnes de dons et financement participatif… bref, l’existence du réseau social n’était qu’un petit élément de cet univers, et sa modération un sous-élément en plus de l’aspect technique…
Je parle des interactions et non pas de la modération car sur d’autres services, les salariés géraient déjà de la modération de contenu : images violentes, notamment de pédopornographie… Mais cela impactait uniquement les salariés et ne se propageait pas vers l’extérieur, donc restait du travail totalement invisible.
Or, avec Framapiaf, s’il y avait des contenus problématiques qui étaient diffusés, ils n’impactaient pas seulement les salariés qui faisaient la modération mais aussi leurs destinataires, et potentiellement tous les usagers du média social.
Aussi de nombreuses utilisatrices ont signalé à l’association (parfois violemment, j’y reviendrais) que l’état de la modération leur semblait insuffisant, et que des personnes avaient des interactions problématiques avec iels.
Les salariés n’ayant pas la disponibilité pour gérer pleinement ce sujet, ce sont des bénévoles qui s’en sont chargés.
Avant la charte : Un flou qui crée des tensions
Recette pour abimer des modérateurices
En effet, jusqu’à présent quelques salarié·es de l’association géraient la modération avec les moyens du bord, étaient souvent seuls à s’occuper des signalements dans leur coin, alors que cette tâche est particulièrement complexe.
Pourquoi complexe ? Parce que lorsque l’on est modérateurice, et qu’on souhaite faire un travail juste, notre notion de ce qui est juste est sans cesse réinterrogée.
Déjà dans l’analyse de la situation : Est-ce que la personne qui a posté ce contenu l’a fait en sachant sciemment qu’elle risquait de blesser quelqu’un, ou non ?
Dois-je lui donner le bénéfice du doute ? Est-elle agressive ou seulement provocante ? Est-ce qu’on doit agir contre une personne provocante ? Est-ce que ce contenu est vraiment problématique, ou est-ce que c’est moi qui me suis levé·e du mauvais pied ? Qui suis particulièrement sensible à cette situation ?
Ensuite dans les actions à effectuer : dois-je supprimer ce contenu ? Supprimer ce compte ? Prévenir la personne pour lui expliquer le pourquoi de mes actions, par transparence ? Comment cela va-t-il être reçu ? Quel est le risque de retour de flammes pour moi ? Pour l’association ?
Et le meilleur pour la fin : on se sent seul responsable lorsque des personnes extérieures viennent critiquer, parfois violemment, la façon dont la modération est réalisée.
Il n’y a aucune réponse universelle à ces questions. Ce qui simplifie, en général, le processus de modération, c’est :
— un collectif qui permet de prendre une décision collégiale (ce qui évite de faire reposer une décision difficile et ses conséquences sur un seul individu)
— une vision politique qui facilite d’autant ces prises de décisions.
Nous avons une chance immense à Framasoft, c’est que toutes les personnes actives au sein de l’association sont très alignées politiquement (ça se sent dans le manifeste que nous venons de publier). Mais il n’y avait pas de collectif de modérateurices pour traiter ces questions et prendre les décisions qui sont les plus dures : celles pour les situations qui se trouvent “sur le fil”.
Structurer un groupe de modérateurices pour s’améliorer
J’arrive donc à Framasoft avec l’envie d’aider sur le sujet de la modération, qui est instamment priorisé par le directeur de l’association au vu du stress dans lequel étaient plongés les salariés-modérateurs.
Nous sommes un petit groupe (trois personnes) à proposer de rédiger une charte qui transposera notre vision politique en discours lisible, sur laquelle nous pourrons nous appuyer et nous référer pour expliciter nos choix de modération futurs et trancher des situations problématiques qui ont profité d’un flou de notre politique de modération.
Nous n’avons pas de débat majeur, étant assez alignés politiquement ; c’est la rédaction de la charte qui a été la plus complexe, car nous étions deux sur trois à être novices en modération, nous ne savions donc pas précisément ce qui nous
servirait dans le futur. La charte est disponible sur cette page et a été publiée le 8 juillet 2019.
Publication de la charte
Donc une fois la charte réalisée, il a fallu la poster.
Et là.
J’ai déjà raconté en partie ce qui s’est passé sur un précédent billet de blog nommé Dramasoft, du nom du hashtag utilisé pour parler de la vague de réactions suite à cette publication.
Pour résumer, nous avons subit une vague de harcèlement, de la part de personnes directement touchées par des oppressions systémiques (ça fait tout drôle). Il s’agit d’un type particulier de harcèlement donc je reparlerai : il n’était pas concerté. C’est à dire que les personnes ayant contribué au harcèlement ne l’ont pas fait de façon organisée. Mais l’accumulation de reproches et d’accusations a exactement le même effet qu’une vague de harcèlement opérée volontairement.
D’ailleurs pour moi, elle était pire qu’une vague de masculinistes du 18-25 que j’avais vécu un an auparavant. Car il est bien plus facile de les mettre à distance, en connaissant les mécanismes utilisés et leurs méthodes d’intimidation. Ce n’est pas la même chose de se faire harceler par des personnes qui sont dans le même camp que nous. Et je n’ai pas réussi à créer de la distance, en tout cas sur le moment (maintenant j’ai compris que les façons de communiquer comptaient !).
La charte
Je reviens sur ses différents articles :
1 — Cadre légal
Nous sommes placé·e⋅s sous l’autorité de la loi française, et les infractions que nous constaterons sur nos médias pourront donner lieu à un dépôt de plainte. Elles seront aussi modérées afin de ne plus apparaître publiquement.
Cela concerne entre autres (sans être exhaustif) :
— l’injure
— la diffamation
— la discrimination
— les menaces
— le harcèlement moral
— l’atteinte à la vie privée
— les appels à la haine
— La protection des mineurs, en particulier face à la présence de contenu à caractère pornographique (Loi n° 98-468 du 17 juin 1998 — Article 227-22-1 et Article 227-23 du code pénal).
Alors respecter la loi, ça peut sembler bête de le rappeler, mais ça nous permet de faire appel à un argument d’autorité qui peut être utile lorsqu’on n’a pas envie de faire dans la dentelle.
2 — Autres comportements modérés
Ici nous avons fait en sorte d’être, autant que possible, “ceinture et bretelles” pour rendre explicites que nous trouvons ces différents comportements problématiques. Et si vous avez l’impression qu’il s’agit parfois de choses évidentes, eh bien sachez que ça n’est pas le cas pour tout le monde.
Nous n’accepterons pas les comportements suivants, qui seront aussi modérés :
— Envoyer des messages agressifs à une personne ou à un groupe, quelles que soient les raisons. Si on vous insulte, signalez-le, n’insultez pas en retour.
Permet de ne pas tomber dans le “mais c’est pas moi c’est lui qui a commencé”.
— Révéler les informations privées d’une personne. Dévoiler ses pseudonymes et les caractères de son identité est un choix personnel et individuel qui ne peut être imposé.
Ici par exemple, on explicite clairement un comportement qui n’a rien de répréhensible en soi (c’est pas interdit de donner des infos sur une personne !) mais qu’on sait avoir des effets délétères sur les personnes visées (si on donne le numéro de téléphone ou l’adresse d’une personne, même si rien ne se passe ensuite, il y a a minima la peur d’être contacté·e par des inconnus qui est vraiment problématique).
— Insister auprès d’une personne alors que cette dernière vous a demandé d’arrêter. Respectez les refus, les « non », laissez les gens tranquilles s’iels ne veulent pas vous parler.
On rappelle la base de la notion de consentement, ce qui permet aussi d’encourager les utilisateurices à poser leurs limites si elles souhaitent arrêter un échange.
— Tenir des propos dégradants sur les questions de genre, d’orientation sexuelle, d’apparence physique, de culture, de validité physique ou mentale, etc. et plus généralement sur tout ce qui entretient des oppressions systémiques. Si vous pensiez faire une blague, sachez que nous n’avons pas d’humour sur ces questions et que nous ne les tolérerons pas. Dans le doute, demandez-vous préalablement si les personnes visées vont en rire avec vous.
Ici, petit point “oppression systémique” aussi résumable en “on est chez les woke, déso pas déso” ; de plus on coupe court à toute tentative de négocier par un prétendu “humour”.
— Générer des messages automatiques de type flood, spam, etc. Les robots sont parfois tolérés, à condition d’être bien éduqués.
Les bots pourquoi pas mais selon ce qui nous semble être “une bonne éducation” et oui c’est totalement arbitraire. 🙂
— Partager des émotions négatives intenses (notamment la colère), en particulier à l’égard d’une personne. Les médias sociaux ne sont pas un lieu approprié pour un règlement de compte ou une demande de prise en charge psychologique. Quittez votre clavier pour exprimer les émotions intenses, trouvez le lieu adéquat pour les partager, puis revenez (si nécessaire) exposer calmement vos besoins et vos limites.
Ici on partage notre vision des réseaux sociaux : Ils ne permettent pas d’avoir une discussion apaisée, ne serait-ce que parce qu’ils limitent grandement le nombre de caractères et par là même, la pensée des gens. Donc si ça ne va pas, si vous êtes en colère, éloignez-vous-en et revenez quand ça ira mieux pour vous.
— Participer à un harcèlement par la masse, inciter à l’opprobre général et à l’accumulation des messages (aussi appelé dog piling). Pour vous ce n’est peut-être qu’un unique message, mais pour la personne qui le reçoit c’est un message de trop après les autres.
Ici on place la différence entre une action et l’effet qu’elle peut avoir sur les personnes. En effet, si le harcèlement organisé est facile à imaginer, on se rend moins compte de l’effet que peut avoir un flot de messages envoyé à une personne, quand bien même les expéditeur·ices ne se sont pas coordonnés pour générer une vague de harcèlement… le ressenti final est similaire : on reçoit des tonnes de messages propageant de la colère ou des reproches, alors qu’on est seul·e de l’autre coté de l’écran.
— Dénigrer une personne, un comportement, une croyance, une pratique. Vous avez le droit de ne pas aimer, mais nous ne voulons pas lire votre jugement.
On conclut avec une phrase plus généraliste, mais qui nous permet d’annoncer que le réseau social n’est pas là pour clamer son avis en dénigrant les autres.
3 — Les personnes ne sont pas leurs comportements
Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.
Nous changeons et nous apprenons au fil de notre vie… aussi des comportements que nous pouvions avoir il y a plusieurs années peuvent nous sembler aujourd’hui complètement stupides… Cette phrase est donc là pour annoncer que, a priori, nous aurons une tolérance pour les nouveaux arrivants et nouvelles arrivantes.
Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.
Cette phrase est parmi celles qui nous servent le plus : à Framasoft, ce qui nous sert de ligne de rupture, c’est l’énergie que nous prend une personne. Quand bien même ce qui est fait est acceptable du point de vue de la charte, si nous sommes plusieurs à nous prendre la tête pour savoir si oui, ou non, les contenus partagés méritent une action de modération… Eh bien c’est déjà trop.
Après tout, nous avons d’autres projets, l’accès à nos services est gratuit, mais il n’y a pas de raison de nous laisser
vampiriser notre temps par quelques utilisateurs qui surfent sur la frontière du pénible.
4 — Outils à votre disposition
Nous demandons à chacun⋅e d’être vigilant⋅e. Utilisons les outils à notre disposition pour que cet espace soit agréable à vivre :
Si quelqu’un vous pose problème ou si vous vous sentez mal à l’aise dans une situation, ne vous servez pas de votre souffrance comme justification pour agresser. Vous avez d’autres moyens d’actions (détaillés dans la documentation)
fuir la conversation,
bloquer le compte indésirable,
bloquer l’instance entière à laquelle ce compte est rattaché (uniquement disponible sur Mastodon),
signaler le compte à la modération.
Une partie de l’action des modérateurices est de faire (ce que j’appelle personnellement) “la maîtresse”. J’ai plusieurs fois l’impression de me faire tirer la manche par un enfant qui me dirait “maîtresse, untel est pas gentil avec moi”. J’y reviendrai, mais c’est pour cela que nous listons les façons d’agir : pour que dans les cas mineurs, les personnes puissent agir elles-mêmes. Déjà parce que se sera toujours plus rapide, que cela permet à la personne de faire l’action qu’elle trouve juste, et puis parce que ça permet de ne pas nous prendre du temps pour des cas qui restent des petites prises de bec individuelles.
— Si quelqu’un vous bloque, entendez son souhait et ne cherchez pas à contacter cette personne par un autre biais, ce sera à elle de le faire si et quand elle en aura envie.
Petit point consentement, ça fait pas de mal.
— Si vous constatez des comportements contraires au code de conduite menant des personnes à être en souffrance, signalez-le à la modération afin de permettre l’action des modérateurs et modératrices. Alerter permet d’aider les personnes en souffrance et de stopper les comportements indésirables.
Il ne nous est pas possible d’être pro-actif sur la modération, pour deux raisons simples :
1. On a autre chose à faire que passer notre temps à lire les contenus des un·es et des autres.
2. Nous avons nos propres comptes bloqués, masqués, et nous ne sommes pas au sein de toutes les conversations. Aussi il n’est pas possible de tout voir (et de toute façon, ça nous ferait bien trop de boulot !).
— S’il n’est pas certain qu’une personne est en souffrance, mais que les comportements à son égard sont discutables, engagez la conversation autour de ces comportements avec chacune des personnes concernées, dans le respect, afin d’interroger et de faire évoluer votre perception commune des comportements en question.
Petit point : chacun·e peut être médiateurice, il n’y a pas que les modérateurices qui doivent le faire. J’insiste sur ce point,
car on a tendance à créer une dichotomie entre “les utilisateurs” qui peuvent faire preuve d’immaturité, et les modérateurices qui eux seraient paroles d’évangile ou au moins d’autorité. Il est dommage de ne pas avoir davantage de personnes qui se préoccupent d’un entre deux où elles pourraient ménager les 2 parties afin que chacun·e clarifie pacifiquement sa position, ce qui permettrait sûrement d’éviter les actions de modération.
— Dans le cadre du fediverse (Framapiaf, PeerTube, Mobilizon,…), vous pouvez également masquer un compte (vous ne verrez plus ses messages dans votre flux mais vous pourrez continuer à discuter avec la personne). Vous pouvez aussi bloquer un compte ou une instance entière depuis votre compte : à ce moment, plus aucune interaction ne sera possible entre vous, jusqu’à ce que vous débloquiez.
Référez-vous à la documentation sur les façons de signaler et se protéger suivant les médias utilisés.
Et pour conclure, on donne d’autres indications sur la façon de s’auto-gérer sur une partie de la modération.
5 — Actions de modération
Lorsque des comportements ne respectant pas cette charte nous sont signalés, nous agirons dans la mesure de nos moyens et des forces de nos bénévoles.
Dans certains cas, nous essayerons de prendre le temps de discuter avec les personnes concernées. Mais il est aussi possible que nous exécutions certaines de ces actions sans plus de justification :
— suppression du contenu (des messages, des vidéos, des images, etc.)
— modification (ou demande de modification) de tout ou partie du contenu (avertissement de contenu, suppression d’une partie)
— bannissement de compte ou d’instance, en cas de non-respect des CGU (usage abusif des services) ou de non-respect de cette charte.
N.B. : dans le cadre du fediverse (Framapiaf, PeerTube, Mobilizon, etc.), nous pouvons masquer les contenus problématiques relayés sur notre instance, voire bloquer des instances problématiques, mais non agir directement sur les autres instances.
La modération est effectuée par des bénévoles (et humain⋅es !), qui n’ont pas toujours le temps et l’énergie de vous donner des justifications. Si vous pensez avoir été banni⋅e ou modéré⋅e injustement : nous sommes parfois injustes ; nous sommes surtout humain⋅e⋅s et donc faillibles. C’est comme ça.
Utiliser nos services implique d’accepter nos conditions d’utilisation, dont cette charte de modération.
Nous faisons ici un récapitulatif des différents pouvoirs que nous avons et surtout que nous n’avons pas :
— le fonctionnement de Mastodon fait que nous pouvons discuter avec des personnes qui ne sont pas inscrites chez nous : nous ne pouvons donc pas supprimer leurs comptes (mais nous pouvons couper leur communication avec nous) ;
— nous sommes principalement des bénévoles, et de ce fait notre temps et énergie est limitée. Aussi, souvent, alors que nous aimerions discuter posément avec chacun·e pour expliquer les tenants et les aboutissants d’une situation… nous n’en avons simplement pas l’énergie, alors nous allons au plus simple. Et c’est frustrant, c’est injuste, mais c’est l’équilibre que nous avons trouvé.
6 — En cas de désaccord
Si la façon dont l’un de nos services est géré ne vous plait pas :
— Vous pouvez aller ailleurs.
— Vous pouvez bloquer toute notre instance.
Framasoft ne cherche pas à centraliser les échanges et vous trouverez de nombreux autres hébergeurs proposant des services similaires, avec des conditions qui vous conviendront peut-être mieux. Que les conditions proposées par Framasoft ne vous conviennent pas ou que vous ayez simplement envie de vous inscrire ailleurs, nous essaierons de faciliter votre éventuelle migration (dans la limite de nos moyens et des solutions techniques utilisées).
J’ai dit plus haut que les personnes qui rejoignaient Mastodon ne s’inscrivaient pas toutes chez nous. Cela nous permet par ailleurs de dire aux personnes qui se sont inscrites chez nous “désolés mais vous nous prenez trop d’énergie, trouvez-vous un autre endroit”. Cela ne prive en rien les personnes car elles peuvent s’inscrire ailleurs et avoir accès exactement aux mêmes contenus… mais nous ne sommes plus responsables d’elles !
7 — Évolution de la Charte
Toute « charte de modération » reste imparfaite car il est très difficile de l’adapter à toutes les attentes. Nous restons à votre écoute afin de la faire vivre et de l’améliorer. Pour cela vous pouvez contacter les modérateurs et modératrices pour leur faire part de vos remarques.
Vous pouvez nous faire vos retours, on est pas des zânes ni des têtes de mules.
La suite
Après ce tour sur mon arrivée dans le monde de la modération, la découverte de ce qu’est Mastodon, et ce par quoi nous avons démarré pour structurer une petite équipe de modération face aux difficultés vécues par les salarié·es, le second article de cette série parle de cas concrets.
Si vous voulez savoir comment on fait pour gérer les fachos, ça va vous plaire.
Illustration : CC-BY David Revoy
#Framastats – Framasoft en chiffres, édition 2022
Vous aimez les chiffres ? Ça tombe bien, nous aussi ! Framasoft sert à combien de personnes ? Combien de Framadate, Framapads, d’emails envoyés par Framalistes ?
« Collectivisons Internet / Convivialisons Internet 🦆🦆 »Les actions de notre nouvelle feuille de route étant financées par vos dons (défiscalisables à 66 %), vous pouvez en trouver un résumé complet sur le site Soutenir Framasoft.
Framasoft est en campagne de dons pour pouvoir vous offrir de nouveaux services et maintenir l’existant. Vous trouverez plus d’explications dans cet article bilan :
Mais au fait, Framasoft : ça donne quoi en chiffres ?
L’idée de cet article n’est pas (que) de montrer qu’on a de gros bras.
Mais aussi qu’on est peut-être légitimes à accueillir vos dons. Non pas parce qu’on les mériteraient plus qu’une autre asso, mais parce qu’un tel résultat ne peut s’obtenir qu’avec beaucoup de temps, d’énergie, voire d’amour ❤️
Commençons par les services les plus connus.
#Framastats #Framadate
623 000 sondages hébergés (les sondages sont automatiquement supprimés au bout de 6 mois au plus).
200K sondages de + qu’en février dernier.
Et environ 💥 30 millions de visites en 2022. Et ça continue de monter…
Vous pouvez aimer ou pas ce que Framasoft fait, mais en (presque) toute objectivité, pour une micro-asso francophone, on pense qu’on peut être fier⋅es du travail accompli cette année !
Framasoft souhaite, dans les années à venir, continuer à vous outiller numériquement, vous aider à développer vos compétences collaboratives et coopératives afin de transformer le monde.
Notre budget 2021, c’est (on a arrondi, mais nos rapports financiers et d’activités sont publiés ici) 640 000 € de dépenses, financées par les dons (à 98,5 %) avec 80 000 € de dons de fondations (NLnet, Fondation pour le Progrès de l’Homme), cela signifie que 86 % des dons qui ont financé notre année viennent… de vous !
À Framasoft, nous sommes fiers de ce modèle solidaire où les dons de quelques milliers de personnes permettent à plus d’un million de bénéficier de tout ce que l’on fait. Rappelons d’ailleurs que Framasoft est reconnue d’intérêt général. Ainsi, un don de 100 € revient, après déduction fiscale, à 34 € pour les contribuables de France.
À l’heure où nous publions ces lignes, nous estimons qu’il nous manque 39 100 € pour boucler notre budget annuel et nous lancer sereinement dans nos actions en 2023.
Si vous le pouvez (eh oui, en ce moment c’est particulièrement compliqué), et si vous le voulez, merci de soutenir les actions de notre association.
Late 2017, we announced our desire to create a free, decentralised and federated alternative to YouTube.
Five years later, we are releasing PeerTube v5, a tool used by hundreds of thousands people on a thousand interconnected platforms to share over 850,000 videos.
« Collectivise Internet / Convivialise Internet 🦆🦆 »
Our new 3-year roadmap is funded by your donations.
You will find a short presentation of this roadmap on our Support Framasoft website.
For the past 5 years, our only developer dedicated to PeerTube (and to other tasks in Framasoft) has released one new major version per year:
PeerTube v1 (Oct. 2018) allows you to create a video platform with federation, peer-to-peer streaming, redundancy, search tools and multilingual interface.
PeerTube v2 (Nov 2019) brings notifications, playlists and plugins.
PeerTube v3 (Jan. 2021) adds federated search, live and peer-to-peer streaming.
PeerTube v4 (Dec. 2021) allows to customise each platform’s homepage, to sort and filter displayed videos, and to manage them more easily.
Throughout these years, this developer has taken care to improve moderation and federation tools, the video player, the interface, the code and the accessibility and also to fix bugs while answering community questions and needs.
PeerTube ecosytem
PeerTube is an artisanal work, in the noble sense of the word. It is a handcrafted tool that now serves a large alternative ecosystem for online video.
Once again, we would like to remind you that our small non-profit creates and maintains all this with only one developer on the project, helped by:
Framasoft employees and volunteers for communication, strategy, administration;
PeerTube community which regularly contributes to code, plugins, translations, suggestions, sharing and donations (thanks and lots of datalove to you <3);
Service providers in specialized areas (UX or UI design, accessibility, creation of mobile applications, etc.).
However PeerTube is only one of dozens of projects we maintain at Framasoft, even though it is one of the largest.
Like every thing we do, PeerTube is mainly funded by your donations (and donations from foundations like NLnet).
Since the beginning of 2022, we have been working on PeerTube to make it easier and easier to use for videomakers and their communities.
In February, version 4.1 brings several expected improvements: of the interface, of the video player on mobile devices, of the plugin system, of the search filters or of the instance customization.
In June, version 4.2 introduces two major new features: the Studio, for light video editing directly from PeerTube; and replay publication for « Twitch-like » live streams. Other new features include detailed video statistics, latency management for live streaming and subtitle editing directly from the interface.
In September, with version 4.3, you can now automate video import from a YouTube (or Vimeo) channel. We have also completely reworked the interface for creating a PeerTube account and improved the live streams display on external website.
PeerTube v5: improving and securing to empower yourself better
The file system has been redesigned to secure internal and private videos. This was a fairly complex work that lays a basis for some much asked future features.
Another very emancipating technical improvement is the possibility of storing live streams in the cloud, with « object storage » system. This means that PeerTube platforms hosted on a server with limited disk storage and bandwidth are no longer limited in their ability to offer live streams.
It is now possible to use two-factor authentication to connect to a PeerTube platform. We use the OTP (One Time Password) method which allows, via an external application, to generate a unique code to validate the connection to its account.
This new version also comes with a lot of bug fixes and improvements. For example, we have added more possibilities to the API, so that PeerTube contributors can develop even more powerful plugins.
Also, the PeerTube interface has received many changes. For example, in the My Videos menu now displays channels, and a mention of the playlist in which a video has been added to.
Finally, we have now a detailed OpenTelemetry documentation (feature released in version 4.2) which brings advanced statistics and observability.
Support, intern, technical challenges and questions on our horizon
Right now, we only have a clear vision for the near future of PeerTube.
In early 2023, we plan to work on a rather technical but very exciting feature, which should reduce the servers’ load and thus to lower the power needed to create a PeerTube platform: we’ll tell you more as soon as we’ve made progress.
Also in 2023, we will welcome a developer intern. We want more and more people to become familiar with PeerTube core code. We want to expermient with temporarily expanding the team working on it.
Finally, the day after this article is published, we will answer all your questions on reddit. Join us on December 14th at 4pm (CEST) on r/opensource for an AMA (Ask Me Anything) about PeerTube and Framasoft!
These few points aside… we have no idea what the PeerTube roadmap will be in 2023. We need you to help us define it!
Please go to Let’s Improve PeerTube and publish your ideas (and vote for the ones you’re excited about). We want to know what the PeerTube community needs and wants, especially the « non-geek » audience who doesn’ t care about words like « server » or « instance » and just want to watch and share videos.
In early 2023, we will go through the most popular suggestions and select those that fit our vision for PeerTube and our development capabilities, in order to build the PeerTube v6 roadmap.
So it’s up to you to tell us what future you want for PeerTube!
An international tool…
This year, we were lucky enough to have two development contracts that helped us to fund some of our work on PeerTube.
The French Ministry of Education funded the Studio (a tool for editing videos) to be implemented on its platform apps.education.fr (a free-libre service platform provided by the Ministry to all teachers and staff).
Howlround, a Boston-based open platform for theatremakers worldwide, funded detailed video and live stats, but also replay feature for permanent lives.
Finally, we received an exceptional grant from the Dutch foundation NLnet to work on PeerTube v5.
…funded by French-speaking donations
Put together, these amounts represent a small half of our annual budget dedicated to PeerTube (which we estimate at 70 000 €). The other part comes from Framasoft’s budget, i.e. from the donations that our non profit receives from its mainly French-speaking community. To us, it seems almost unfair that it is mainly French speakers who finance a tool that has a truly international scope…
But here’s the thing: we’re already not very good at « selling ourselves », promoting our work and getting donations, so if we have to do international marketing, we’re not out of the woods!
We don’t have a marketing department: we only have you.
So we need your help. Spread the word about our donation campaign around you, especially outside the French-speaking world.
Do not hesitate to share the address support.joinpeertube.org around you, on your PeerTube platforms, in your communities that benefit from this alternative.
At the time of publishing, we are still missing 115 000 € to finance our yearly budget and make everything we want to do in 2023 happen.
If you can (especially in these hard times) and if you want to, thanks for supporting our non-profit and our actions.
PeerTube v5 : le résultat de 5 ans de travail artisanal
Fin 2017, nous annoncions notre volonté de créer un outil alternatif à YouTube qui soit libre, décentralisé et fédéré.
Cinq ans plus tard, nous publions la v5 de PeerTube, un outil utilisé par des centaines de milliers de personnes sur un millier de plateformes interconnectées pour partager ensemble plus de 850 000 vidéos.
« Collectivisons Internet / Convivialisons Internet 🦆🦆 » Les actions de notre nouvelle feuille de route étant financées par vos dons (défiscalisables à 66 %), vous pouvez en trouver un résumé complet sur le site Soutenir Framasoft.
Depuis 5 ans, notre unique développeur consacré à PeerTube (et à d’autres tâches dans Framasoft) a publié une nouvelle version majeure par an :
PeerTube v1 (oct. 2018) permet de créer une plateforme vidéo avec fédération, diffusion en pair à pair, redondance, outils de recherche et interface multilingue.
PeerTube v2 (nov. 2019) apporte les notifications, les playlists, les plugins.
PeerTube v3 (jan. 2021) ajoute la recherche fédérée, mais surtout le streaming en direct et en pair à pair.
PeerTube v4 (dec. 2021) permet de personnaliser l’accueil de sa plateforme, de trier et filtrer les vidéos affichées, et de les gérer plus facilement.
Tout au long de ces années, ce développeur a pris soin d’améliorer les outils de modération et de fédération, le lecteur vidéo, l’interface, le code, l’accessibilité et de réparer les bugs tout en répondant aux questions et besoins exprimés par la communauté.
L’écosystème PeerTube
PeerTube est un travail artisanal, au sens noble du terme. C’est un outil façonné à la main, qui sert aujourd’hui un vaste écosystème alternatif pour les vidéos en ligne. En voici les détails :
SepiaSearch, un moteur de recherche de ce qui se trouve sur PeerTube
Une fois encore, nous tenons à rappeler que notre petite association crée et maintient tout cela avec un seul développeur sur le projet, aidé :
par des salarié·es et bénévoles de Framasoft pour la communication, la stratégie, l’administratif ;
par la communauté qui contribue régulièrement sous forme de code, de plugin, de traductions, de suggestions, de partages et de dons (merci et plein de datalove à vous <3) ;
par des prestataires qui vont intervenir sur des domaines spécialisés (design UX ou UI, accessibilité, création d’applications mobiles, etc.).
Pourtant, PeerTube n’est qu’un projet parmi les dizaines que nous maintenons, à Framasoft, même si c’est l’un des projets les plus conséquents.
Et comme tout ce que nous faisons, PeerTube est principalement financé par vos dons (et des dons de fondations telles que NLnet).
Depuis le début de l’année 2022, nous continuons le travail sur PeerTube afin qu’il devienne de plus en plus facile à aborder pour les vidéastes et leurs publics.
En février, la version 4.1 apporte plusieurs améliorations attendues : de l’interface, du lecteur vidéo sur les mobiles, du système de plugins, des filtres de recherches, ou de la personnalisation des instances.
En juin, la version 4.2 présente deux grandes nouveautés : le Studio, pour modifier des vidéos directement depuis PeerTube ; et la publication de replay pour les directs « à la Twitch ». Notons aussi les statistiques vidéos détaillées, la gestion de la latence pour les directs et l’édition de sous-titres directement depuis l’interface.
En septembre, avec la version 4.3, on peut enfin automatiser l’import des vidéos depuis une chaîne YouTube (ou Viméo). Nous avons aussi complètement retravaillé l’interface de création de compte PeerTube et amélioré l’affichage des directs sur un site externe.
PeerTube v5 : améliorer et sécuriser pour mieux vous empuissanter
Nous sommes en décembre 2022, et la v5 de PeerTube est désormais disponible ! C’est une version qui renforce la sécurité de plusieurs manières.
Le système de fichiers a été repensé afin de sécuriser les vidéos internes et privées. C’était un travail de fond assez complexe qui pose les bases pour de futures fonctionnalités très demandées.
Autre amélioration technique très émancipatrice : la possibilité de stocker les directs « sur le cloud », avec le système « object storage ». Ainsi, les plateformes PeerTube hébergées sur un serveur avec peu d’espace disque ne sont plus limitées pour proposer du live.
Il est désormais possible d’utiliser l’authentification à deux facteurs afin de se connecter à sa plateforme PeerTube. Nous utilisons ici la méthode OTP (One Time Password) qui permet, via une application externe, de générer un code unique pour valider la connexion à son compte.
Cette nouvelle version vient aussi avec son lot de corrections de bugs et d’améliorations. Ainsi, nous avons ajouté plus de possibilités au niveau de l’API, afin que les contributrices PeerTube puissent développer des plugins toujours plus puissants.
De même, l’interface de PeerTube a reçu de nombreuses évolutions, avec par exemple, dans l’espace Mes Vidéos, l’apparition des chaînes, ou la mention de la playlist dans laquelle se trouve une vidéo.
Enfin, nous avons pu détailler la documentation d’OpenTelemetry (fonctionnalité apparue dans la version 4.2) qui permet d’obtenir des statistiques de maintenance et d’observation avancées.
Soutien, stagiaire, défis techniques et questions à l’horizon
D’une part nous avons cette année encore soutenu le travail de John Livingston sur le plugin PeerTube Live Chat, et on peut vous annoncer que l’installation facilitée arrive très prochainement !
Début 2023, nous comptons travailler sur une fonctionnalité assez technique mais très enthousiasmante, qui devrait permettre d’alléger la charge sur les serveurs et donc abaisser la puissance nécessaire pour créer une plateforme PeerTube : on vous en dévoile plus dès qu’on aura avancé dessus.
Toujours en 2023, nous allons accueillir un stagiaire en développement. Nous souhaitons en effet que de plus en plus de personnes se familiarisent avec le cœur du code de PeerTube. Nous allons ainsi expérimenter d’agrandir, temporairement, l’équipe qui travaille dessus.
Enfin, dès le lendemain de la parution de cet article, nous répondrons, en anglais, à toutes vos questions sur reddit. Rejoignez nous le 14 décembre dès 16h (Heure de Paris) sur r/opensource pour une AMA (Ask Me Anything – demandez-nous ce que vous voulez) sur PeerTube et Framasoft !
Le futur proche de PeerTube est clair à nos yeux, mais pour la suite, ce sont vos suggestions qui vont nous guider. Nous n’avons pas d’idée de ce que sera la feuille de route de PeerTube en 2023. Pour la définir, nous avons besoin de vous !
Allez proposer vos idées (et voter pour les idées qui vous enthousiasment) sur Let’s Improve PeerTube (en anglais uniquement). Nous voulons savoir quels sont les besoins, quelles sont les envies du public de PeerTube, et plus particulièrement le public « non-geek », qui se fiche éperdument des mots « serveur » ou « instance », et qui souhaite juste voir et partager des vidéos sur cet outil.
Début 2023, nous irons voir les suggestions les plus plébiscitées et nous sélectionnerons celles qui correspondent à notre vision de PeerTube et à nos capacités de développement, afin de construire la feuille de route de PeerTube v6.
C’est donc à vous de nous dire quel avenir vous souhaitez pour PeerTube !
Un outil international…
Cette année, nous avons eu la chance d’avoir deux prestations en développement qui nous ont aidés à financer une partie de notre travail sur PeerTube.
Le ministère de l’Éducation nationale a financé le Studio (outil pour modifier les vidéos) afin de l’implémenter sur sa plateforme d’outils libre apps.education.fr (si vous dépendez du MEN, pensez à utiliser et promouvoir cette plateforme !).
Howlround, un média universitaire de Boston autour des arts scéniques, a, quant à lui, financé les statistiques détaillées des vidéos et des directs, ainsi que le replay pour les live permanents.
Enfin, nous avons bénéficié d’une bourse exceptionnelle de la fondation Néerlandaise NLnet pour le travail sur la v5 de PeerTube.
…financé par les dons francophones
Mises bout à bout, ces sommes représentent une petite moitié de notre budget annuel consacré à PeerTube (que nous estimons à 70 000 €). Le reste de l’argent provient donc du budget de Framasoft, c’est-à-dire des dons que notre association reçoit de son public principalement francophone. Cela nous semble presque injuste que ce soit majoritairement les francophones qui financent un outil qui a une véritable portée internationale…
Mais voilà : le fait est qu’on n’est déjà pas hyper douées pour « se vendre », promouvoir notre travail et aller chercher les dons, alors s’il faut faire du marketing international, on n’est pas rendus !
Nous n’avons pas de service marketing : nous n’avons que vous.
Nous avons donc besoin de votre aide. Faites marcher le bouche-à-oreille pour faire connaître notre campagne de dons autour de vous, spécifiquement hors de la francophonie.
N’hésitez pas à partager l’adressesoutenir.framasoft.org autour de vous, sur vos plateformes PeerTube, dans vos communautés qui bénéficient de cette alternative.
À l’heure où nous publions ces lignes, nous estimons qu’il nous manque un peu plus de 115 000 € pour boucler notre budget annuel et nous lancer sereinement dans nos actions en 2023.
Si vous le pouvez (eh oui, en ce moment c’est particulièrement compliqué), et si vous le voulez, merci de soutenir les actions de notre association.
Framasoft 2022 : a casserole cooked up thanks to you, thanks to your donations
Did you know that 98% of Framasoft’s budget is based on donations (86% of which are from individuals). It is therefore thanks to you and your support (thank you!) that all our actions are possible. So we wanted to give you a summary of what we have done in 2022. A look back at 12 months of popular education on the challenges of digital and cultural commons, which we wanted to be rich in flavours to please your (and our!) taste buds.
« Collectivise Internet / Convivialise Internet🦆🦆 » The actions of our new roadmap are funded by your donations, You will find a short presentation of this roadmap on our Support Framasoft website.
Behind this little feast, who is there? A small group of 38 people: 28 volunteers and 10 employees, convinced that a world where digital technology allows us to gain freedom is possible! We tell you here what we did, thought about and moved forward in the kitchens. And the ovens are still hot!
Sharing our values, intentions and actions loud and clear
After 3 years of work, workshops guided by Marie-Cécile Godwin and fine-tuning by the association, we published our manifesto in November. This long work made us think a lot and allowed us to highlight very simply the political dimension of our associative project: we want to change the current world for a better one, where the Commons are favoured, where social justice is a fundamental value and where our liberties are preserved.
The second part of this important work was to make sure that our manifesto intentions are understood as soon as they arrive on framasoft.org. We have therefore completely redesigned our main websiteto make our associative project clear, fluid and easily understandable.
Collectivise Internet / Convivialise Internet: our new roadmap 2023-2025
After 5 years on course with Contributopia, we needed to refine our compass and review our direction: where do we want to continue our exploration for the next few years? This is how the new roadmap Collectivise Internet / Convivialise Internet (code name: COIN / COIN – quack in french) was created: we want to address more directly the collectives and associations committed to a better world (without putting aside the thousands of people who use our tools!).
4 projects have been unveiled and will be progressively improved as the months go by thanks to the beneficiaries’ feedback, with the idea of creating more links between the tools and the people:
Frama.space: offering liberated cloud to small activist collectives
Peer.tube: to promote the PeerTube for which we are working
Emancip’Asso: to promote the digital emancipation of the associative world
ECHO Network: to understand the needs of popular education in different European countries.
Seeing each other again and seeing you again: it’s a real boost!
This year 2022 will also have been marked by a more intense resumption of shared moments, in the flesh (with good airing!): GAs, Framacamp, events, fairs, conferences, festivals, film screenings, round tables… Because as much as we love doing all this, seeing you and us motivates us, boosts us and encourages us to continue testing new, ambitious, wacky and funny projects (Remember Proutify? The extension has just been updated by one of our volunteers)… it’s so important to have fun doing all this!
Without you, everything we do would not be possible: 98% of the association’s resources come from donations. Do you think that our reflections are going in the right direction? If you have the means, if you have the desire, we thank you in advance for your support.
For us, popular education is the basis for a better world: everyone can share their knowledge and access it, in all simplicity. We present here the different popular education actions carried out this year.
Sharing knowledge and points of view
To begin with, Framasoft intervened, in person or remotely, in various spaces, to talk about digital emancipation, alternative digital, or how to be free online. Our members have made more than 70 interventions, for different structures, associations or groups, in different regions of France. You can watch some of these interventions on our Framatube channel.
Then, Framasoft keeps the pen active on the Framablog. More than 100 articles have been published this year, between presentations of our different actions, translations of Framalang, weekly press review, guest keyboards, interviews of various emancipatory projects, audio articles… The Framablog is a space where we express ourselves without limits.
We also intervened about twenty times in the media when we were asked to share our points of view on digital issues: video interviews, podcasts, articles… You will find the different links accessible on this page.
Des Livres en Communs: the publishing house that breaks the rules
Our publishing house, Des Livres en Communs (formerly Framabook), is turning the publishing codes upside down by offering a grant to authors upstream of the writing process, as well as the publication of the work under a free licence, in digital form only.
Following the first call for publication launched in January: « Towards a more contributive, more united, more ethical and more free world: how to equip and organise ourselves together », the project « L’amour en Commun », by Margaux Lallemant and Timothé Allanche was selected. The objective of this publication is to question how the commonality of love, as a means of organisation and a motor of commitment, allows us to build an alternative to capitalist society.
The book is currently being created, between fieldwork and immersions, while being accompanied by our publishing committee.
The Free, Open, Autonomous and Decentralised Popular University (UPLOAD: standing for Université Populaire Libre, Ouverte, Autonome, et Décentralisée in french) is a large popular education project initiated and coordinated by Framasoft (for the moment), in a decentralised and networked logic. The objective is to contribute (on our scale) to making society more just and our world more liveable, by focusing on the training of citizens by citizens.
This project is largely formed by the LibreCourses, online courses allowing access to different knowledge and skills. Stéph offered us a conference (in french) to present the topic during the Free Software Days.
This year’s Librecourses will have been punctuated by the theme « Low-tech and digital »: a first session between April and June and a second between November and January 2023. Do you also find the exponential growth of digital technology problematic? Are you interested in reducing the technical footprint of a tool? You can find the videos of the courses here.
Peer.tube: a showcase for PeerTube that looks like us
With Peer.tube, we want to create a showcase for PeerTube, with quality content selected in advance. It’s our answer to a question we’re often asked: « But where do I find interesting content on PeerTube? The Peer.tube site is already available with a first selection of channels and videos, but the project will only really move forward next year.
Has our popular education buffet piqued your curiosity? Do you think our contributions are going in the right direction? Then we’d like to reiterate that all this was made possible thanks to you and your donations – thank you!
Enabling citizens to become digitally empowered and free their practices is the core of our actions. But what is this good pan made of? Liberated ingredients, quality, and a good pinch of love. We tell you all about it.
Online services to do without the digital giants
Our online services are often the reason why people know us: more than 9 out of 10 people told us so during our survey « What you think of Framasoft » launched at the end of May. And to tell the truth, we were not very surprised. To give you some figures, we count more than 50 million visits on all our sites since the beginning of the year, more than 350 surveys are created every day on Framadate, nearly 15,000 forms are created every month on Framaforms, nearly 110,000 collaborative writing pads are active on Framapad. We still find this incredible!
Between 2014 and 2019, our little association has made around 40 free and trusted online services available to Internet users (yes, 40!). For many reasons, this was too much, and we have gradually closed, between 2019 and 2022, a part of these services, while proposing alternatives. This period of closure is now over: our 16 online services are available to anyone who wants to use tools that respect our freedoms. We have therefore decided to update and redesign the degooglisons-internet.org website to make it an easily accessible gateway, to make it reflect our image and above all to reassure our users.
Keeping these services up to date, managing the machines that run them or answering your questions about support, is a daily job, and we try to put our best efforts into it!
PeerTube: freeing your videos and channels is getting easier
PeerTube is the software we develop (well, one of our employees, yes, one!) to offer an alternative to video platforms. And 2022 will have been a year rich in evolutions, where we now count more than 1000 active PeerTube platforms.
Let’s go to V5!
To begin with, version 4.1 was released in February, bringing interface improvements, new mobile features, an improved plugin system, new search filters and new instance customization possibilities for admins.
In June, we released version 4.2, which brought a great new feature: the Studio, or the possibility to edit videos directly from the web interface. This version also brought more detailed viewing statistics, the possibility to adjust the latency during a broadcast or the direct editing of subtitles (thanks Lutangar!)
In September, version 4.3 was released, allowing the automatic import of videos from a remote channel (thanks to Florent, one of the administrators of the PeerTube Skeptikón instance) and new improvements to the interface and the integration of live videos (a collaborative effort with a designer from la Coopérative des Internets).
And we can already tell you that the new major version, v5, will be released in a few days with (exclusive information!) two-factor authentication or the possibility to send live files to the cloud for admins…
Do you create content on PeerTube? Do you enjoy watching videos on PeerTube? In July, we launched the ideas.joinpeertube.org tool (in english) to collect your needs for the software and help us identifynew features to develop to make PeerTube more enjoyable to use.
Please feel free to take a look around, to vote for one of the features already proposed or to propose a new one. A big thank you to everyone who took the time to share their opinion!
joinpeertube.org: easier access to PeerTube
joinpeertube.org is THE site that introduces PeerTube, THE gateway to information about this alternative to centralized video platforms, and we want to leave it wide open!
The previous version of joinpeertube.org was mainly focused on the technical features of PeerTube, and therefore addressed to technical profiles. However, now that there are more than 1,000 PeerTube platforms, we felt that it was necessary to promote the software to a wider audience who may be less digitally literate.
After an audit of the site via user tests carried out by La Coopérative des Internets, the web agency proposed improvements to allow a better understanding of PeerTube. You will find all the details of this version on this article of the Framablog: and we hope that this redesign will be useful and will facilitate the use of PeerTube!
Mobilizon: we make it easy for you to search
Mobilizon is the software that Framasoft is developing (well, one of our employees⋅es and not even full time!) to offer an alternative to Facebook events and groups.
Mobilizon Search Index, a search engine in the fediverse
As we did before with Sepia Search (our search engine for discovering content published on PeerTube), we want to offer a gateway to Mobilizon to show its emancipatory potential.
Mobilizon Search Index references the events and server groups that we have approved on instances.joinmobilizon.org (currently a little over 80 instances, and we hope the list will grow!). The search engine then allows you to explore the events and groups of all these servers, and in different ways: search bar (well, it’s rather classic), by categories (interesting, isn’t it?) or even by geolocating yourself to find events nearby (crazy!).
The source code is free-libre : anyone (with some computer skills, anyway…!) can install a Mobilizon Search Index, and adapt it to their needs.
So, does this make you want to test it?
A v3 focused on research
We released the 3rd major version of Mobilizon in November. The software has reached the maturity we wanted it to have, and that is very motivating!
In the new features: many elements of the software have been modified to avoid accumulating technical debt, the design of the homepage has evolved in design, and the search results page has also been revised (hello Mobilizon Search Index!). Increasing the possibilities of discovering events and groups to make the diversity of content published on Mobilizon more visible was also the goal of this v3.
This v3 was able to evolve thanks to the various contributions (thanks to the community!), was partly financed by a grant from NLNet (thanks to them!), and of course by you, and your donations (again a big thank you).
Frama.space: emancipating small associations and activist collectives
Frama.space is a new service (in french) that we offer to small associations and activist collectives, to allow them to match their strong internal values (of social justice and emancipation) with digital tools in the same direction (free and non-monopolistic tools). We want to empower associations and activist collectives by opening digital spaces for sharing, working and organising (up to 50 accounts per collective, based on the free software Nextcloud with: office suite, 40 GB of storage, synchronisation of diaries and contacts, video tools, etc.).
Announced on 15 October when our roadmap Collectivisons / Convivialisons Internet was released, pre-registration has been open since 18 November. Currently, applications are being reviewed (by real⋅es human⋅es!) to open 250 first spaces by the end of the year. Our ultimate goal (a tad ambitious, yes!) being to make 10,000 Frama.space spaces available by the end of 2025.
Do you want to read more about the political aim of the project? We invite you to read this article or to watch this conference, which provides all the important details.
Do you find our actions to empower citizens through digital technology interesting? Do you think we are going in the right direction? All this was possible thanks to you and your donations. Thank you!
For dessert: farandole of a better world (to share!)
Because a good meal is always better when shared. And because it’s by sharing our know-how that we can go further. We act with other structures, which, like independent islands, bathe in the common waters of the same archipelago (can you also imagine floating islands with a good custard?): we keep our independence while sharing values of social justice. Acting together is obvious!
From the kittens’ side
The CHATONS (kittens in french) collective is a bit like a network of online service CSA(Community Supported Agriculture). Where Google, Facebook or Microsoft would represent the agri-food industry, the members of CHATONS would be computer farmers offering organic online services without GMOs, pesticides, aggressive marketing, in short: without a « race for purchasing power ».
At the end of this year, after already 14 litters of kittens, we count 97 members in the collective, i.e. 97 alternative hosts working in the same direction: resisting the gafamisation of the Internet and proposing alternatives respectful of our private lives.
The collective was present on different events during the year (Free Software Days, Digital Accessibility Workshop, Geek Faeries, Freedom Not Fear, Fête de l’Huma, Capitole du Libre), to present its actions. The second CHATONS camp took place this summer, a great time to meet and to relaunch great collective dynamics. Different working groups were created, in particular the group « An association for the CHATONS collective » aiming at an autonomization of the collective with the aim that we (Framasoft) leave little by little the coordination of the collective to the collective itself.
Emancip’Asso: promoting the digital emancipation of the associative world
The aim of Emancip’Asso is to help associations to find support to help their digital practices evolve towards more ethical practices. Designed in partnership with Animafac, 2022 will have been a year of… paperwork (yes, this is often the beginning of ambitious projects!).
The first funding allowed us to work on the first stage of the project: a training course for ethical hosts to help them accompany associations in their digital transition. Search for speakers, preparation of the programme and logistics: the training (it’s full!) will take place in Paris, from 16 to 20 January 2023 (the programme in detail is here).
Finally, at the end of this year, we applied to different student programs to set up two working groups: one on the graphic identity of Emancip’Asso (in progress!), and a second one on the realization of the emancipasso.org website (to come).
ECHO Network: understanding the digital needs of popular education, here and elsewhere
2022 will also have been the year of the development of the European project « Ethical, Commons, Humans, Open-Source Network » (ECHO Network, it’s a bit easier to remember…). Led by the popular education movement CEMÉA France, the project brings together 7 structures from 5 European countries (France, Belgium, Croatia, Germany, Italy). What do they have in common? The support, each at its own level, of the public in their autonomy and emancipation.
The objective of the project is to exchange on the difficulties, opportunities and ways to accompany the public that our associations serve towards a digital transition. And the background: how to accompany this emancipation in (or even by) a digital world centralised by the web giants?
The first meeting of the exchange will take place in Paris from 14 to 17 January 2023. This opening seminar will allow us to unpack the general theme: supporting the digital transition of associations that train citizens. Read more here.
And that’s not all!
Knowledge transfer
With Hubikoop (territorial hub of the New Aquitaine region for an inclusive digital environment) we started in September the animation of the course « Accompaniment to the discovery of ethical digital services » : 8 workshops for the actors of the digital mediation in New Aquitaine. This partnership is starting to give rise to new ideas, which we will tell you about next year!
In the framework of the PENSA project with Aix-Marseille University, we intervened in June for a training of trainers on the theme « Free software and services for the digital emancipation of citizens ». The final objective is to enable teachers to develop their skills for a critical use of digital technology in education.
We have also carried out various actions in connection with AFPA and more specifically the people in charge of the training of Digital Mediation Space Managers, to transmit more knowledge on ethical digital.
Framasoft also became a member of the MedNum. Our ambitions behind this? To raise awareness of free tools among digital mediation actors, to train digital mediators in ethical alternatives and to equip the cooperative itself with free tools.
The L.A. Coalition (of which Framasoft is a member) took a position in April on the Republican Commitment Contract: the collective denounced it as a potential source of litigation and abusive sanctions by the administration or public authorities to the detriment of associations and foundations.
Following the announcement of its very difficult financial situation this summer, we supported the media NextINpact (very qualitative digital watch) by buying « suspended » subscriptions that we drew at random.
We also supported affordance.info (qualitative content on digital and relevant social issues) by migrating its blog from a non-free tool (Typepad) to a free tool (WordPress), all hosted by us.
We proposed a Signal proxy (free messaging) following a call from the structure informing of the blocking of its application by the Iranian regime in the face of the current revolts.
Did you like our shared dessert? You think that these actions carried out with other islands of our archipelago are to be encouraged? Know that they are also only possible thanks to you and your donations. Thank you again!
Framasoft, today, is more than 50 000 € of expenses per month. We closed the 2021 accounting year with a deficit of €60,000 (which donations – more generous during the 2020 confinements – fortunately allowed us to absorb).
At the time of writing, we estimate that we are €127,500 short of our annual budget and can confidently launch our actions in 2023. If you can (yes, at the moment it is particularly complicated), and if you want to, please support the actions of our association.