La dégooglisation du GRAP, partie 3 : Le bilan

On vous a partagé la semaine dernière la deuxième partie de La dégooglisation du GRAP qui vous invitait à découvrir comment iels avaient réussi à sortir de Google Agenda et gmail. Voici donc la suite et fin de ce récit palpitant de dégooglisation. Encore merci à l’équipe informatique du GRAP d’avoir documenté leur démarche : c’est vraiment très précieux ! Bonne lecture !

 

Dans l’épisode précédent…

Après la sortie de Google Drive remplacé par Nextcloud, Google Agenda par Nextcloud Agenda, nous avons fini par le plus gros bout en 2021-2022, sortir de Gmail et en finir avec le tentaculaire Google.

Le mardi 23 novembre, nous débranchions enfin Google. Nous voilà libres ! Presque 😉

Bilan dégooglisation

Après 4 ans de dégooglisation, où en sommes-nous de notre utilisation de logiciels non libres ?

Dans l’équipage ⛵

Système d’exploitation Libre ? Commentaire
Windows 13 personnes
Ubuntu 9 personnes
Gestion documentaire et travail collaboratif
Nextcloud Files Tout le monde depuis 2020 ✅
Nextcloud Agenda Tout le monde depuis 2021 ✅
Téléphonie et visio
3CX Tout le monde  ❌
Nextcloud Discussions
Mail et nom de domaine
Gandi
Tout le monde depuis 2022 ✅
Logiciels métier
Odoo (suivi des actis, achat/revente, facturation)
Pôles info, accompagnement et logistique
EBP (compta)
Pôle compta
Cegid (paie) Pôle social
Gimp, Inkscape, Scribus (graphisme et mise en page)
Pôle communication
BookstackApp (documentation) Tous pôles
Logiciels bureautique
Suite Office
Suite LibreOffice
Réseaux sociaux
Facebook, Linkedin, Twitter, Eventbrite
Peertube

Nos pistes d’amélioration en logiciel libre sont donc du côté du système d’exploitation et des logiciels métiers.

Les blocages sont dus :

  1. à certains logiciels métiers qui n’existent pas en logiciel libre
    → à voir si on arrive à développer certains bouts métier sur Odoo dans les prochaines années
  2. à la difficulté de se passer d’Excel pour certaines personnes grandement habituées à ses logiques et son efficacité
    → à voir si LibreOffice continue à s’améliorer et/ou si on se forme plus sur LibreOffice

Dans la coopérative  🌸

Système d’exploitation Libre ? Commentaire
Ubuntu Dans tous les points de vente
ordinateurs portables
Windows ou Mac Les autres ordinateurs portables
Gestion documentaire et travail collaboratif
Nextcloud Files Tout le monde y a accès depuis 2020 ✅
Fournisseur mail principal
Gandi
55%
Gmail 37%
Ecomail ? 4%
Logiciels métier
Odoo (achat, revente, stock, facturation, intelligence décisionnelle)
Utilisé par 95% des activités
Autres
❌ ✅ Dur à dire, mais la majorité des activités de transformation utilise des tableaux Excel ou des logiciels dédiés
Logiciels bureautique
Suite Office Pas de référencement fait. Aucune visibilité actuellement
Suite LibreOffice

Nos pistes d’amélioration sont donc du côté des logiciels mails et des logiciels métiers.

→ Un des gros chantiers de 2022-2023 est justement le développement et la migration sur Odoo Transfo. Pas pour le côté politique du logiciel libre mais bien de l’amélioration continue d’un même logiciel partagé dans la coopérative.

→ À voir si la dégooglisation de l’équipe « inspire » certaines activités pour se motiver à se dégoogliser. Nous serons là pour les accompagner et continuer à porter le message à qui veut l’entendre.

Bilan humain

À l’heure où nous écrivons (fin octobre 2022), il est trop tôt pour faire le bilan de la sortie de Gmail. Nous comptons d’ailleurs envoyer un nouveau questionnaire dans quelques mois qui nous permettra d’y voir plus clair. Mais nous pouvons d’ores et déjà dire que ce fut clairement l’étape la plus compliquée de la dégooglisation.

Sortir d’un logiciel fonctionnel, performant et joli est forcément compliqué quand on migre vers un logiciel aux logiques différentes (logiciel bureau VS web par exemple) et qui souffre de la comparaison au premier abord. Pour compenser cela, nous avons fait le choix de dédier beaucoup de temps humains (nombreuses formations par mini groupes ou en individuels, réponses rapides aux questions posées) et beaucoup de documentations et de partage de retour d’expériences.

La sortie de Google Drive et Google Agenda furent relativement douces et moins complexes que Gmail. Le logiciel Nextcloud étant assez mature pour assurer un changement plutôt simple et serein.

Ça paraît simple une fois énoncé, mais plus les gens travaillent avec un outil (Google par exemple), plus il sera difficile de les amener à changer facilement d’outil.

Conseil n°5 :
Dans la mesure du possible, la meilleure des dégooglisation est celle qui commence dès le début, par l’utilisation d’outils Libres. En 2022, quasiment tout logiciel a son alternative Libre mature et fonctionnel.
Si ce n’est pas possible, dès que les moyens humains sont disponibles et que la majorité le veut, envisagez votre dégooglisation ?

À Grap, il existe une certaine culture politique de compréhension autour des enjeux du logiciel libre et des GAFAM. Cela nous a aidé. Et cela nous parait quasiment obligatoire avant d’envisager une dégooglisation. Car c’est un processus long où l’on a besoin du consentement – au moins théorique – des gens impactés pour que celleux-ci acceptent de se former à de nouveaux outils, s’habituer à de nouvelles habitudes etc.

Conseil n°6 : avant d’entamer une dégooglisation, faire monter en compétences votre groupe sur les sujets autour du Logiciel Libre et des enjeux des Gafam à travers des projections de films par exemple.
Voici un récap de quelques ressources.

Bilan technique

Voici nos choix de logiciels pour notre dégooglisation :

  • Nextcloud pour la gestion documentaire et le travail collaboratif (agenda, visio, gestion de tâches)
    • complété par Onlyoffice avec une image Docker sans limitation d’usage (pendant 2 ans l’image nemskiller007/officeunleashed puis désormais alehoho/oo-ce-docker-license)
    • sauvegarde quotidienne par le logiciel de sauvegarde Borg
  • BookstackApp et Peertube pour la documentation écrite et vidéo
  • Meshcentral pour la prise en main à distance d’autres ordinateurs
  • Gandi pour le prestataire de mails
  • Thunderbird pour le logiciel bureau pour gérer ses mails (et K9Mail sur téléphone)

Voici nos choix d’infrastructure :

  • OVH et Online  pour la location de serveurs faisant tourner ses services (choix historique)
  • 4 serveurs :
    • 1 serveur dédié Nextcloud de 2To (Gamme Start-1-L Intel Xeon E3 1220v2 @3,1 Ghz, 16Go RAM)
    • 1 serveur dédié Nextcloud Test en miroir du Nextcloud
    • 1 serveur de sauvegarde (mutualisé avec d’autres services de la coopérative)
    • 1 serveur dédié à différents services (Peertube, Meshcentral, Bookstackapp)

Bilan économique

Pour calculer le coût économique de notre dégooglisation commencé en 2018, voici les chiffres retenus.

☀️ Le scénario « Dégooglisation » est celui réellement effectué depuis 2018.
Son coût comprend :

  • le temps de travail du service informatique, découpé en
    • l’aide au collègue habituelle : qui subit une augmentation du fait de l’internalisation de certaines questions, notamment avec le changement de Gmail à Thunderbird
    • le support et administration système des services :
      • toutes les recherches techniques (comment bien gérer les installations, sauvegardes etc.)
      • toutes les questions / réponses par mail et téléphone
    • le « temps de dégooglisation » qui correspond
      • les temps d’écriture de documentation et de formation
      • les mails d’annonce, de relance, de re-re-relance  😉
  • le coût des serveurs informatiques pour faire tourner les logiciels remplaçant les services Google et Teamviewer

🤮 À l’opposé, le scénario Google comprend :

  • le temps de travail du service informatique sur l’aide au collègue – accès stable dans le temps – qui augmente par le nombre de gens dans l’équipe, mais diminue par notre appropriation des logiciels, améliorations de l’existant, documentation etc.
  • la facturation des comptes Google Workspace
    • stable depuis 2018, Google a annoncé cet été l’augmentation de ces prix. Les pauvres n’ont eu que 6% de croissance en 2022 avec 14 milliards de dollars de bénéfices. Passant donc les comptes pro de 4€ à 10,40€/mois à partir de juin 2023.
  • la facturation hypothétique (car elle n’a jamais eu lieu) de Teamviewer Pro
    • En effet, jusqu’à juin 2019, nous utilisions Teamviewer pour aider les activités de la coopérative à distance. Mais notre utilisation intensive ne rentrait plus dans la version gratuite et Teamviewer nous bloquait l’usage du logiciel pour que l’on souscrive à leur abonnement.
    • Heureusement, nous sommes passés sur des logiciels auto-hebergés et libre : RemoteHelp (un logiciel libre abandonné depuis) puis en décembre 2020 sur Meshcentral.

En prenant en compte ces données, le scénario « Dégooglisation » finit par devenir moins cher que le scénario « Google ».
Pour le coût mensuel, cela arrive dès septembre 2022 (quasi à la fin de la sortie de Gmail donc) !  🎉
Pour le coût cumulé, cela devient rentable deux ans après, en septembre 2024 !  🎉

Ces chiffres s’expliquent par :

  • le coût important au démarrage de la sortie de Google Drive
    • 128h passées sur les 5 premiers mois pour valider la solution Nextcloud
  • un temps de support / administration système pour Nextcloud qui baisse progressivement
    • passant de 14h mensuels en 2019, à 9h en 2020, à 5h en 2021, à 3h en 2022
  • le prix de Google qui aurait augmenté (mais on y a échappé avant, ouf !)

Bilan politique

Nous sommes fièr·es en tant que coopérative de porter concrètement nos valeurs dans le choix de nos logiciels qui sont plus que de simples outils.

Ces outils sont porteurs de valeurs démocratiques très fortes. Nous ne voulons pas continuer à engraisser Google – et autres GAFAM – de nos données privées et professionnelles qui les revendent à des entreprises publicitaires et des états à tendance anti-démocratique (voir les révélations Snowden, le scandale Facebook-Cambridge Analytica). Cela est en contradiction avec ce que nous prônons : la coopération, de l’entraide et le lien humain.

Nous avons besoin d’outils conviviaux, modulables et modifiables selon qui nous sommes. Nous avons besoin de pouvoir trifouiller les outils que nous utilisons, comme nous pouvons trifouiller un vélo pour y réparer le frein ou y rajouter un porte-bagages. Des outils émancipateurs en somme, qui nous empouvoire et ne rendent pas plus esclave de la matrice capitaliste.

Notre démarche n’aurait pas pu avoir lieu sans le travail et l’aide de millions de personnes qui ont construit des outils Libres, des documentations Libres, des conférences et autres vidéos Libres. Elle n’aurait pas eu lieu non plus sans l’inspiration de structures comme Framasoft ou la Quadrature du Net. Merci.

 🍎 La route est longue, la voie est libre, et sur le chemin nous y cueillerons des pommes bios et paysannes.  🍏

Encore un grand merci aux informaticiens du GRAP pour leur travail de documentation sur cette démarche. D’autres témoignages de Dégooglisation ont été publiés sur ce blog, n’hésitez pas à prendre connaissance. Et si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !

 




Démystifier les conneries sur l’IA – Une interview

Cet article a été publié à l’origine par THE MARKUP, il a été traduit et republié selon les termes de la licence Creative Commons Attribution-NonCommercial-NoDerivatives
Publication originale sur le site themarkup.org

Démystifier le buzz autour de l’IA

Un entretien avec Arvind Narayanan

par JULIA ANGWIN
Si vous avez parcouru tout le battage médiatique sur ChatGPT le dernier robot conversationnel qui repose sur l’intelligence artificielle, vous pouvez avoir quelque raison de croire que la fin du monde est proche.

Le chat « intelligent » de l’IA a enflammé l’imagination du public pour sa capacité à générer instantanément des poèmes, des essais, sa capacité à imiter divers styles d’écrits, et à réussir à des examens d’écoles de droit et de commerce.

Les enseignants s’inquiètent de la tricherie possible de leurs étudiants (des écoles publiques de New York City l’ont déjà interdit). Les rédacteurs se demandent si cela ne va pas faire disparaître leur travail (BuzzFeed et CNET ont déjà utilisé l’IA pour créer des contenus). Le journal The Atlantic a déclaré que cela pourrait « déstabiliser les professions de cadres supérieurs ». L’investisseur en capital-risque Paul Kedrosky l’a qualifié de « bombe nucléaire de poche » et blâmé ses concepteurs pour l’avoir lancé dans une société qui n’y est pas prête.

Même le PDG de l’entreprise qui a lancé ChatGPT, Sam Altman, a déclaré aux médias que le pire scénario pour l’IA pourrait signifier « notre extinction finale ».

Cependant pour d’autres ce buzz est démesuré. Le principal scientifique chargé de l’IA chez Meta’s AI, Yann LeCun, a déclaré à des journalistes que ChatGPT n’a « rien de révolutionnaire ». Le professeur de langage informatique de l’université de Washington Emily Bender précise que « la croyance en un programme informatique omniscient vient de la science-fiction et devrait y rester ».

Alors, jusqu’à quel point devrions-nous nous inquiéter ? Pour recueillir un avis autorisé, je me suis adressée au professeur d’informatique de Princeton Arvind Narayanan, qui est en train de co-rédiger un livre sur « Le charlatanisme de l’IA ». En 2019, Narayanan a fait une conférence au MIT intitulée « Comment identifier le charlatanisme del’IA » qui exposait une classification des IA en fonction de leur validité ou non. À sa grande surprise, son obscure conférence universitaire est devenue virale, et ses diapos ont été téléchargées plusieurs dizaines de milliers de fois ; ses messages sur twitter qui ont suivi ont reçu plus de deux millions de vues.

Narayanan s’est alors associé à l’un de ses étudiants, Sayash Kapoor, pour développer dans un livre la classification des IA. L’année dernière, leur duo a publié une liste de 18 pièges courants dans lesquels tombent régulièrement les journalistes qui couvrent le sujet des IA. Presque en haut de la liste : « illustrer des articles sur l’IA avec de chouettes images de robots ». La raison : donner une image anthropomorphique des IA implique de façon fallacieuse qu’elles ont le potentiel d’agir dans le monde réel.

Narayanan est également le co-auteur d’un manuel sur l’équité et l’apprentissage machine et dirige le projet Web Transparency and Accountability de l’université de Princeton pour contrôler comment les entreprises collectent et utilisent les informations personnelles. Il a reçu de la Maison-Blanche le Presidential Early Career Award for Scientists and Engineers [N. de T. : une distinction honorifique pour les scientifiques et ingénieurs qui entament brillamment leur carrière].

Voici notre échange, édité par souci de clarté et brièveté.

Angwin : vous avez qualifié ChatGPT de « générateur de conneries ». Pouvez-vous expliquer ce que vous voulez dire ?

Narayanan : Sayash Kapoor et moi-même l’appelons générateur de conneries et nous ne sommes pas les seuls à le qualifier ainsi. Pas au sens strict mais dans un sens précis. Ce que nous voulons dire, c’est qu’il est entraîné pour produire du texte vraisemblable. Il est très bon pour être persuasif, mais n’est pas entraîné pour produire des énoncés vrais ; s’il génère souvent des énoncés vrais, c’est un effet collatéral du fait qu’il doit être plausible et persuasif, mais ce n’est pas son but.

Cela rejoint vraiment ce que le philosophe Harry Frankfurt a appelé du bullshit, c’est-à-dire du langage qui a pour objet de persuader sans égards pour le critère de vérité. Ceux qui débitent du bullshit se moquent de savoir si ce qu’ils disent est vrai ; ils ont en tête certains objectifs. Tant qu’ils persuadent, ces objectifs sont atteints. Et en effet, c’est ce que fait ChatGPT. Il tente de persuader, et n’a aucun moyen de savoir à coup sûr si ses énoncés sont vrais ou non.

Angwin : Qu’est-ce qui vous inquiète le plus avec ChatGPT ?

Narayanan : il existe des cas très clairs et dangereux de mésinformation dont nous devons nous inquiéter. Par exemple si des personnes l’utilisent comme outil d’apprentissage et accidentellement apprennent des informations erronées, ou si des étudiants rédigent des essais en utilisant ChatGPT quand ils ont un devoir maison à faire. J’ai appris récemment que le CNET a depuis plusieurs mois maintenant utilisé des outils d’IA générative pour écrire des articles. Même s’ils prétendent que des éditeurs humains ont vérifié rigoureusement les affirmations de ces textes, il est apparu que ce n’était pas le cas. Le CNET a publié des articles écrits par une IA sans en informer correctement, c’est le cas pour 75 articles, et plusieurs d’entre eux se sont avérés contenir des erreurs qu’un rédacteur humain n’aurait très probablement jamais commises. Ce n’était pas dans une mauvaise intention, mais c’est le genre de danger dont nous devons nous préoccuper davantage quand des personnes se tournent vers l’IA en raison des contraintes pratiques qu’elles affrontent. Ajoutez à cela le fait que l’outil ne dispose pas d’une notion claire de la vérité, et vous avez la recette du désastre.

Angwin : Vous avez développé une classification des l’IA dans laquelle vous décrivez différents types de technologies qui répondent au terme générique de « IA ». Pouvez-vous nous dire où se situe ChatGPT dans cette taxonomie ?

Narayanan : ChatGPT appartient à la catégorie des IA génératives. Au plan technologique, elle est assez comparable aux modèles de conversion de texte en image, comme DALL-E [qui crée des images en fonction des instructions textuelles d’un utilisateur]. Ils sont liés aux IA utilisées pour les tâches de perception. Ce type d’IA utilise ce que l’on appelle des modèles d’apprentissage profond. Il y a environ dix ans, les technologies d’identification par ordinateur ont commencé à devenir performantes pour distinguer un chat d’un chien, ce que les humains peuvent faire très facilement.

Ce qui a changé au cours des cinq dernières années, c’est que, grâce à une nouvelle technologie qu’on appelle des transformateurs et à d’autres technologies associées, les ordinateurs sont devenus capables d’inverser la tâche de perception qui consiste à distinguer un chat ou un chien. Cela signifie qu’à partir d’un texte, ils peuvent générer une image crédible d’un chat ou d’un chien, ou même des choses fantaisistes comme un astronaute à cheval. La même chose se produit avec le texte : non seulement ces modèles prennent un fragment de texte et le classent, mais, en fonction d’une demande, ces modèles peuvent essentiellement effectuer une classification à l’envers et produire le texte plausible qui pourrait correspondre à la catégorie donnée.

Angwin : une autre catégorie d’IA dont vous parlez est celle qui prétend établir des jugements automatiques. Pouvez-vous nous dire ce que ça implique ?

Narayanan : je pense que le meilleur exemple d’automatisation du jugement est celui de la modération des contenus sur les médias sociaux. Elle est nettement imparfaite ; il y a eu énormément d’échecs notables de la modération des contenus, dont beaucoup ont eu des conséquences mortelles. Les médias sociaux ont été utilisés pour inciter à la violence, voire à la violence génocidaire dans de nombreuses régions du monde, notamment au Myanmar, au Sri Lanka et en Éthiopie. Il s’agissait dans tous les cas d’échecs de la modération des contenus, y compris de la modération du contenu par l’IA.

Toutefois les choses s’améliorent. Il est possible, du moins jusqu’à un certain point, de s’emparer du travail des modérateurs de contenus humains et d’entraîner des modèles à repérer dans une image de la nudité ou du discours de haine. Il existera toujours des limitations intrinsèques, mais la modération de contenu est un boulot horrible. C’est un travail traumatisant où l’on doit regarder en continu des images atroces, de décapitations ou autres horreurs. Si l’IA peut réduire la part du travail humain, c’est une bonne chose.

Je pense que certains aspects du processus de modération des contenus ne devraient pas être automatisés. Définir où passe la frontière entre ce qui est acceptable et ce qui est inacceptable est chronophage. C’est très compliqué. Ça demande d’impliquer la société civile. C’est constamment mouvant et propre à chaque culture. Et il faut le faire pour tous les types possibles de discours. C’est à cause de tout cela que l’IA n’a pas de rôle à y jouer.

Angwin : vous décrivez une autre catégorie d’IA qui vise à prédire les événements sociaux. Vous êtes sceptique sur les capacités de ce genre d’IA. Pourquoi ?

Narayanan : c’est le genre d’IA avec laquelle les décisionnaires prédisent ce que pourraient faire certaines personnes à l’avenir, et qu’ils utilisent pour prendre des décisions les concernant, le plus souvent pour exclure certaines possibilités. On l’utilise pour la sélection à l’embauche, c’est aussi célèbre pour le pronostic de risque de délinquance. C’est aussi utilisé dans des contextes où l’intention est d’aider des personnes. Par exemple, quelqu’un risque de décrocher de ses études ; intervenons pour suggérer un changement de filière.

Ce que toutes ces pratiques ont en commun, ce sont des prédictions statistiques basées sur des schémas et des corrélations grossières entre les données concernant ce que des personnes pourraient faire. Ces prédictions sont ensuite utilisées dans une certaine mesure pour prendre des décisions à leur sujet et, dans de nombreux cas, leur interdire certaines possibilités, limiter leur autonomie et leur ôter la possibilité de faire leurs preuves et de montrer qu’elles ne sont pas définies par des modèles statistiques. Il existe de nombreuses raisons fondamentales pour lesquelles nous pourrions considérer la plupart de ces applications de l’IA comme illégitimes et moralement inadmissibles.

Lorsqu’on intervient sur la base d’une prédiction, on doit se demander : « Est-ce la meilleure décision que nous puissions prendre ? Ou bien la meilleure décision ne serait-elle pas celle qui ne correspond pas du tout à une prédiction ? » Par exemple, dans le scénario de prédiction du risque de délinquance, la décision que nous prenons sur la base des prédictions est de refuser la mise en liberté sous caution ou la libération conditionnelle, mais si nous sortons du cadre prédictif, nous pourrions nous demander : « Quelle est la meilleure façon de réhabiliter cette personne au sein de la société et de diminuer les risques qu’elle ne commette un autre délit ? » Ce qui ouvre la possibilité d’un ensemble beaucoup plus large d’interventions.

Angwin : certains s’alarment en prétendant que ChatGPT conduit à “l’apocalypse,” pourrait supprimer des emplois et entraîner une dévalorisation des connaissances. Qu’en pensez-vous ?

Narayanan : Admettons que certaines des prédictions les plus folles concernant ChatGPT se réalisent et qu’il permette d’automatiser des secteurs entiers de l’emploi. Par analogie, pensez aux développements informatiques les plus importants de ces dernières décennies, comme l’internet et les smartphones. Ils ont remodelé des industries entières, mais nous avons appris à vivre avec. Certains emplois sont devenus plus efficaces. Certains emplois ont été automatisés, ce qui a permis aux gens de se recycler ou de changer de carrière. Il y a des effets douloureux de ces technologies, mais nous apprenons à les réguler.

Même pour quelque chose d’aussi impactant que l’internet, les moteurs de recherche ou les smartphones, on a pu trouver une adaptation, en maximisant les bénéfices et minimisant les risques, plutôt qu’une révolution. Je ne pense pas que les grands modèles de langage soient même à la hauteur. Il peut y avoir de soudains changements massifs, des avantages et des risques dans de nombreux secteurs industriels, mais je ne vois pas de scénario catastrophe dans lequel le ciel nous tomberait sur la tête.

Comme toujours, merci de votre attention.

À bientôt,
Julia Angwin
The Markup

On peut s’abonner ici à la lettre hebdomadaire (en anglais) du magazine The Markup, envoyée le samedi.




Le Fediverse n’est pas Twitter, mais peut aller plus loin

Maintenant que Mastodon a suscité l’intérêt d’un certain nombre de migrants de Twitter, il nous semble important de montrer concrètement comment peuvent communiquer entre eux des comptes de Mastodon, PeerTube, Pixelfed et autres… c’est ce que propose Ross Schulman dans ce billet de l’EFF traduit pour vous par Framalang…

 

source : The Breadth of the Fediverse

Traduction Framalang : CLC, Goofy, Henri-Paul

 

L’étendue du Fediverse

par Ross Schulman

Le Washington Post a récemment publié une tribune de Megan McArdle intitulée : « Twitter pourrait être remplacé, mais pas par Mastodon ou d’autres imitateurs ». L’article explique que Mastodon tombe dans le piège habituel des projets open source : élaborer une alternative qui a l’air identique et améliore les choses dont l’utilisateur type n’a rien à faire, tout en manquant des éléments qui ont fait le succès de l’original. L’autrice suggère plutôt que dépasser Twitter demandera quelque chose d’entièrement nouveau, et d’offrir aux masses quelque chose qu’elles ne savaient même pas qu’elles le désiraient.

Nous pensons, contrairement à Megan, que Mastodon (qui fait partie intégrante du Fediverse) offre en réalité tout cela, car c’est un réseau social véritablement interopérable et portable. Considérer que Mastodon est un simple clone de Twitter revient à oublier que le Fediverse est capable d’être ou de devenir la plate-forme sociale dont vous rêvez. C’est toute la puissance des protocoles. Le Fediverse dans son ensemble est un site de micro-blogging, qui permet de partager des photos, des vidéos, des listes de livres, des lectures en cours, et bien plus encore.

Comme beaucoup de gens se font, comme Megan, une fausse idée sur le Fediverse, et comme une image vaut mieux qu’un long discours, voyons comment l’univers plus large d’ActivityPub fonctionne dans la pratique.

Parlons de PeerTube. Il s’agit d’un système d’hébergement de vidéos, grâce auquel les internautes peuvent en suivre d’autres, télécharger des vidéos, les commenter et les « liker ».
Voici par exemple la page de la chaîne principale du projet open source Blender et c’est là que vous pouvez vous abonner à la chaîne…

fenêtre dans la page de peertube.tv où l'on peut s'abonner au canal blender en utilisant son compte activityPub, ici un compte de mastodon

Dans cet exemple nous avons créé un compte Mastodon sur l’instance (le serveur) framapiaf.org. Une fois qu’on clique sur « S’abonner à distance », nous allons sur le compte Mastodon, à partir duquel il nous suffit de cliquer sur « Suivre » pour nous permettre de…suivre depuis Mastodon le compte du PeerTube de Blender.

fenêtre de mastodon dans laquelle on peut confirmer vouloir suivre un canal peertube (de Blender dans cet exemple) en cliquant sur "Suivre"

Maintenant, dès que Blender met en ligne une nouvelle vidéo avec PeerTube, la mise à jour s’effectue dans le fil de Mastodon, à partir duquel nous pouvons « liker » (avec une icône d’étoile « ajouter aux favoris ») la vidéo et publier un commentaire.

… de sorte que le « like » et la réponse apparaissent sans problème sur la page de la vidéo.

un commentaire-réponse posté sur mastodon apparaît sur le canal peertube

Pixelfed est un autre service basé sur ActivityPub prenant la forme d’un réseau social de partage de photographies. Voici la page d’accueil de Dan Supernault, le principal développeur.

On peut le suivre depuis notre compte, comme nous venons de le faire avec la page PeerTube de Blender ci-dessus, mais on peut aussi le retrouver directement depuis notre compte Mastodon si nous connaissons son nom d’utilisateur.

capture : après recherche du nom d’utilisateur « dansup », mastodon retrouve le compte pixelfed recherché

Tout comme avec PeerTube, une fois que nous suivons le compte de Dan, ses images apparaîtront dans Mastodon, et les « likes » et les commentaires apparaîtront aussi dans Pixelfed.

capture d'écran montrant une photo du chat de Dansup publiée sur pixelfed mais qui s'affiche ici sur le compte mastodon que l'on "suit".

Voilà seulement quelques exemples de la façon dont des protocoles communs, et ActivityPub en particulier, permettent d’innover en termes de médias sociaux, Dans le Fediverse existent aussi BookWyrm, une plateforme sociale pour partager les lectures, FunkWhale, un service de diffusion et partage de musique ainsi que WriteFreely, qui permet de tenir des blogs plus étendus, pour ne mentionner que ceux-là.

Ce que garantit le Fediverse, c’est que tous ces éléments interagissent de la façon dont quelqu’un veut les voir. Si j’aime Mastodon, je peux toujours y voir des images de Pixelfed même si elles sont mieux affichées dans Pixelfed. Mieux encore, mes commentaires s’afficheront dans Pixelfed sous la forme attendue.

Les personnes qui ont migré de Twitter ont tendance à penser que c’est un remplaçant de Twitter pour des raisons évidentes, et donc elles utilisent Mastodon (ou peut-être micro.blog), mais ce n’est qu’une partie de son potentiel. La question n’est pas celle du remplacement de Twitter, mais de savoir si ce protocole peut se substituer aux autres plateformes dans notre activité sur la toile. S’il continue sur sa lancée, le Fediverse pourrait devenir un nouveau nœud de relations sociales sur la toile, qui engloberait d’autres systèmes comme Tumblr ou Medium et autres retardataires.

 




La dégooglisation du GRAP, partie 1 : La sortie de Google Drive

A l’été 2020, nous avons commencé à publier une série d’articles faisant le récit de démarches de transitions numériques éthiques réalisées au sein de plusieurs organisations. Nous avons mené les interviews de 3 structures (WebAssoc, l’Atelier du Chat Perché et la maison d’édition Pourpenser) et puis… ça s’est arrêté. Il y avait sûrement quelque chose de plus urgent à faire ensuite… ou peut-être que le second confinement fin 2020 nous a démotivé. Peu importe la raison en fait, l’important est qu’on s’y remette !

On a donc sauté sur l’occasion lorsque le GRAP (Groupement Régional Alimentaire de Proximité), une coopérative réunissant des activités de transformation et de distribution dans l’alimentation bio-locale, a publié le récit de sa dégooglisation. Nous reproduisons ici ce long texte en trois parties pour vous partager leur expérience.

 

De 2018 à cette fin 2022, nous avons travaillé à Grap à notre dégooglisation. Nous vous proposons ce long texte en trois parties pour vous partager notre expérience.

Son premier intérêt est de laisser une trace du travail fourni et d’en faire le bilan.
Le deuxième intérêt est de partager cette expérience à d’autres structures qui souhaiteraient se lancer dans l’aventure.

Nous partageons dans ce texte les processus mis en place, les différentes étapes de cette dégooglisation, les difficultés rencontrées et quelques conseils.

Pour toute question ou retour, vous pouvez contacter le pôle informatique de Grap : pole-informatique <arobase> grap.coop

Bonne lecture et longue vie aux outils numériques émancipateurs et Libres !  🚲

Au début de Grap en 2012…

Il y a 10 ans, Grap naissait en tant que SCIC – Société Coopérative d’Intérêt Collectif. En 2012 est écrite une 1ère version du préambule des statuts qui décrit l’intérêt collectif qui réunit les associé·e·s de la SCIC. Ce préambule présentait alors que Grap aller « Contribuer au développement d’activités économiques citoyennes et démocratiques, c’est-à-dire […] travaillant dans une logique de partage des savoirs, en phase avec la philosophie Creative Commons ».

Cette 1ère référence au monde du Libre est complétée et enrichie 5 ans plus tard à l’occasion d’une révision du préambule des statuts, en 2017. Désormais le préambule des statuts indique que Grap entend :

Contribuer au développement d’activités économiques citoyennes et démocratiques […] promouvant l’économie des biens communs, c’est à dire :

  • Travailler dans une logique de partage des savoirs, en phase avec la philosophie Creative Commons
  • Promouvoir, contribuer et utiliser des logiciels libres au sens de la Free Software Foundation ; minimiser l’utilisation de logiciels sous licences privatives
  • Promouvoir, contribuer et utiliser des solutions informatiques qui n’exploitent pas de façons commerciales les données des utilisateurs et qui respectent leurs vies privées

Notre démarche de dégooglisation s’inscrit donc dans la continuité des choix politiques portés par les associé·e·s de la coopérative depuis sa création. Par dégooglisation, nous entendons ici le remplacement des logiciels propriétaires – qu’ils soient détenus par les GAFAM ou non – par des logiciels Libres.

Dès le début, il est décidé d’internaliser une partie de l’informatique au sein de l’équipe qui rend les services aux activités de la coopérative. [À Grap, nous utilisons le terme d’activité pour désigner les entreprises associées à Grap et les activités économiques de la Coopérative d’Activités et d’Emploi]. La majorité du temps informatique sera dédié au développement du progiciel libre OpenERP (nommé désormais Odoo) pour gérer la première activité d’épicerie (3 P’tits Pois à Lyon) de la coopérative.

Par pragmatisme économique et choix stratégique, les autres outils de la coopérative ne sont pas choisis par le critère de logiciel Libre ou non. Ainsi, la coopérative va utiliser Google Drive, Google Mail, Google Agenda, et aussi d’autres logiciels spécifiques comme EBP pour la compta ou Cegid Quadra pour la paie.

2018-2020/ Sortir de Google Drive pour Nextcloud

Après le départ d’un des cofondateurs et d’un informaticien en 2014, le service informatique va fonctionner avec 1 seule personne jusqu’à fin 2017. Sylvain Le Gal va alors consolider le périmètre existant (gestion d’une eBoutique, développements spécifiques à l’alimentaire dans OpenERP, connexion avec des balances client·es et migration de OpenERP 7.0 à Odoo 8.0).

Fin 2017, l’embauche de Quentin Dupont permet de gagner en temps de travail disponible et d’agrandir le périmètre des services du pôle informatique.

🌻 L’été 2018 pour valider l’alternative à Google Drive

Le choix du logiciel remplaçant se fait très facilement : Nextcloud est LA solution Libre qui s’impose autant par sa prise en main relativement simple pour des utilisateur·ices de tout niveau, que par l’engouement de sa communauté et son administration alors maîtrisée par le pôle informatique.

Il faut quand même s’assurer que toutes les fonctionnalités utilisées actuellement trouvent leur équivalent. Grâce aux différentes applications existantes sur Nextcloud, les différents besoins se retrouvent bien couverts.

🌸 À l’automne 2018, on prend la décision de sortir de Google Drive

Un changement de logiciel peut être l’occasion de revoir ses pratiques. Nous en profitons pour revoir notre arborescence de fichiers et de dossiers. Nous créons alors :

  • Un compte Nextcloud par :
    • personne physique de l’équipe interne
    • personne physique des activités qui ont des mandats particuliers (administrateur·ice au CA par exemple)
    • activité de la coopérative (donc par « personne morale ») et non pas par personne physique de la coopérative pour différentes raisons :
        • de nombreuses activités partagent réellement leurs ordinateurs tout au long de la journée
        • aucun intérêt à ce que chaque personne ait son compte, cela rajouterait une dose énorme de suivi de création de compte, de support, etc.
        • ce choix vient avec une limite : l’accès aux documents personnels avec le pôle social n’est pas possible
  • Un « groupe » Nextcloud pour chaque groupe autonome
    • un groupe par pôle de l’équipe interne
    • un groupe par mandat : DG, CA
    • un groupe par activité de la coopérative – regroupant le compte de la personne morale + les comptes des personnes physiques de cette activité qui ont des mandats particuliers.
  • Des dossiers communs pour travailler collaborativement
    • entre pôles de l’équipe
    • entre membres de la coopérative
    • entre mandataires (DG ou CA)

structure des dossiers NC au GRAP
La structure de dossiers présentée en nov. 2018 et qui est en place depuis.

Avec Nextcloud, nous avons donc pu créer une architecture plutôt simple pour les utilisateur·ices mais permettant de répondre aux complexités du travail collaboratif entre des profils bien différents.

Grâce aux droits d’accès paramétrables finement, le Nextcloud permet ainsi d’offrir plus de transparence et de collaboration dans la coopérative, que ce soit par les dossiers partagés totalement ou, à l’inverse, les dossiers dont l’accès n’est possible qu’en lecture sans possibilité de modifier.

💮 2019 – 2020 : la dégooglisation de 150 personnes dans 50 activités

Google Drive n’est pas seulement utilisé par l’équipe interne. L’outil est partagé à l’ensemble de la coopérative. C’est à dire à une cinquantaine – à l’époque – d’activités indépendantes, allant de l’entrepreneuse seule à la petite équipe de 10 personnes.

Il faut donc embarquer tout le monde dans ce changement.

  • Politiquement/théoriquement pas de soucis. Les méfaits de Google sont connus de la majorité des gens et théoriquement, nous n’avons jamais eu de désaccords sur l’idée de sortir de Google Drive.
  • En pratique, Google Drive s’avère être plutôt lourd à l’utilisation, pas bien maîtrisé ni maîtrisable, surtout concernant la gestion des partages qui est un véritable enfer (« Qui est le fichu propriétaire de ce fichier dont le propriétaire originel est parti de la structure / n’a plus de compte Google ? »).

En allant sur Nextcloud, nous allions maîtriser – et donc être responsables – des données de la coopérative, nous allions retrouver de la souveraineté et de la compétence sur le sujet.

Au printemps 2019, nous changeons aussi d’outil de documentation. Pour sa simplicité d’utilisation et son ergonomie générale, nous choisissons le logiciel Libre BookstackApp. Depuis, notre librairie tourne toujours aussi bien et héberge notre documentation informatique mais aussi toute la documentation stable de la coopérative.

Depuis 2020, la documentation informatique est librement consultable ici : https://librairie.grap.coop/shelves/informatique

💩 Une première difficulté : l’export des données de Google

L’export fut en effet très compliqué, trop compliqué pour un logiciel conçu par l’une des entreprises les plus puissantes au monde. L’export des données d’un Google Drive (à l’époque en tout cas) est extrêmement long et très peu sécurisant : Google fournit l’export en archives coupées en plusieurs parties (du style « ARCHIVE-PART01 » « ARCHIVE-PART02 »), archives dont une partie… pouvait être manquante (ex : on a la partie 01, 02, 04, 05 mais pas la partie 03), nécessitant de refaire un export entier.

Nous avons donc passé de nombreuses heures à exporter les données, puis nous les avons sécurisées sur un disque dur externe, avant de les envoyer sur notre Nextcloud.

🚀 Et tu formes formes formes, c’est ta façon d’aimer

Pour réussir à dégoogliser la coopérative, pas de miracle, on a enchaîné la formation des activités une à une, en mutualisant des formations par territoire géographique.

Chaque formation durait environ 1h30. En 2019, nous avons passé environ 150 heures de travail à la formation, l’accompagnement et la documentation de cette étape de dégooglisation (+ les heures techniques, voir bilan financier à la fin de ce récit). L’ensemble de la documentation – qui est un travail continu – est consultable ici : https://librairie.grap.coop/books/nextcloud

En janvier 2020, soit plus d’un an après la décision de passer sur Nextcloud, la migration était officiellement finie ! 🎉

🙊 Une difficulté pas anticipée : les limitations d’Onlyoffice pour les commandes groupées

Tout allait bien dans la dégooglisation progressive de la coopérative. Au cours de l’année 2019, la moitié de la coopérative utilise désormais Nextcloud au lieu de Google Drive !

Un des avantages de la coopérative pour les activités est de pouvoir mutualiser de nombreux sujets. Un de ces sujets est l’approvisionnement en produits artisanaux en circuits courts grâce à une logistique interne – Coolivri. Cette logistique s’appuyait à l’époque sur un GROS fichier tableur en ligne sur Google Drive.

Le 2 août 2019, une première commande groupée d’oranges et d’agrumes est lancée sur le Nextcloud et toutes les prochaines commandes groupées vont débarquer sur le Nextcloud, géré par l’application Onlyoffice.

Et c’est vers cette période que l’on se rend compte que l’application disponible d’Onlyoffice a une limitation : pas plus de 20 personnes connectées simultanément sur l’ensemble des fichiers collaboratifs du nuage ! À l’époque nous devions avoir une soixantaine d’utilisateur·ices et une équipe interne qui l’utilise toute la journée : ce n’était pas tenable.

mème limitations OnlyOffice

Cette limitation n’est pas technique, mais bien un choix délibéré de l’entreprise développant le logiciel pour amener à payer une licence permettant d’accéder au logiciel sans limitation. Un modèle freemium en soi. Cette question du modèle économique et de ce qu’est un « vrai » logiciel libre est bien sûr compliqué, et amènera de nombreux débats dans les forums de discussion de Nextcloud.

Fin 2019, nous nous questionnons réellement sur le fait de payer cette licence (coût à l’époque : ~1500€ en une fois pour 100 utilisateur·ices simultanées).

Après avoir écumé les Internets, contacté toutes les structures amies qui auraient la même problématique, la solution vient finalement de la communauté elle-même qui est partagée sur le fait de contourner cette limitation qui constitue le modèle économique de l’entreprise développant Onlyoffice. Un développeur bénévole a réussi à reproduire le logiciel (légalement car le logiciel est Libre) en enlevant cette limitation !

Depuis, nos commandes groupées ont été rapatriées sur Odoo grâce à un gros développement interne, en faisant un outil beaucoup plus résilient et solide. Et nous continuons d’utiliser Onlyoffice dans des versions communautaires trouvées par ci par là.

Google en 2022 s’inquiète 😉

To be continued…

Dans la seconde partie, nous continuerons notre récit de dégooglisation, nous permettant de nous débarrasser de Google Agenda puis du mastodonte.. Gmail !

Si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !




L’aventure de la modération – épisode 5 (et dernier ?)

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le cinquième. Le dernier, pour l’instant.

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération
– Chapitre 4 : Bilan

 

Pour conclure cette série de textes sur la modération, et maintenant que j’ai grandement détaillé comment il est possible, sur Mastodon, d’avoir une modération qui fait le taf, je voulais revenir sur pourquoi, à mon avis, il est impossible pour les grandes entreprises capitalistes de faire correctement de la modération (et pourquoi ça ne sert à rien de leur demander de faire mieux !).

 

C’est le cœur de cette série car je suis très frustrée de voir systématiquement une bonne analyse faite sur les problèmes des outils, qui se casse la figure au moment d’évoquer les solutions. Alors c’est parti !

 

N.B. : je fais cette analyse sans considérer qui est le PDG au moment où je publie car je pense que ça ne change pas grand chose sur le fond, au pire le nouveau sera plus transparent sur sa (non-)politique de modération.

 

Twitter ne fera pas mieux car…

Twitter ne veut pas dépenser d’argent pour construire des équipes de modération

 

Vous le savez sans doute, c’est passé dans de nombreux articles comme celui de Numérama : Twitter assume n’avoir quasiment pas de modérateurs humains

Twitter emploie 1 867 modérateurs dans le monde.

 

Pour 400 millions d’utilisateurices, ça fait 1 modérateurice pour 200 000 comptes. Donc évidemment la modération ne peut pas être suffisante et encore, on ne sait pas comment les effectifs de modération sont répartis selon les langues. Il est évident qu’il est extrêmement difficile de modérer, alors modérer dans une langue qu’on ne maitrise pas c’est mission impossible !

 

Je rajoute rapidement qu’en plus, contrairement à ce que j’évoquais dans mes articles précédents sur « comment prendre soin » et construire un collectif de modération, il n’y a absolument aucune notion de soin et de collectif lorsque l’on est modérateurice chez Twitter. Il y a au contraire des conditions de travail délétères qui amplifient le problème : interdiction de parler à ses collègues, de raconter à l’extérieur ce à quoi on a été confronté, pression temporelle intense donc pas possible de récupérer après un moment violent.

 

Bref, Twitter veut économiser de l’argent, et le fait notamment sur le dos de ses modérateurices qui sont envoyées au massacre psychologique de la modération, et donc au détriment de ses utilisateurices les plus fragiles.

 

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Twitter préfère les robots

Face aux critiques qui lui sont faites, Twitter répond qu’il compte sur l’automatisation des robots pour faire ce travail pénible.

Je pense que cette posture ne tient pas pour plusieurs raisons :
1. C’est technosolutionniste que de penser que des robots peuvent répondre à un problème social (et donc à mon avis voué à l’échec).

2. Les robots sont alimentés par ce que nous leur donnons, et donc remplis de biais qu’ils vont répercuter dans leur politique de modération. Dans un collectif de modérateurices, ces biais sont atténués par les débats et discussions. Je ne crois pas que les robots soient très portés sur la discussion de ce qui est juste ou non.

3. Le contexte est primordial en modération, et un robot ne peut pas être assez « intelligent » pour comprendre ce contexte. Pour exactement le même contenu, selon d’où parle la personne, la réponse de modération ne sera pas la même. Vous imaginez bien qu’entre une femme qui dit subir du sexisme ou un homme, on n’est pas sur la même action à réaliser, l’une subit une oppression systémique tandis que l’autre récupère maladroitement ou stratégiquement un mot en le détournant.

 

Les robots ne sont donc pas une solution sur laquelle on peut compter, mais sont une bonne façon de détourner la discussion du sujet « Pourquoi n’avez-vous pas plus de modérateurices ? ». Il vaut mieux répondre « Le boulot est trop ingrat, on préfère que se soit des robots, on les améliore chaque jour » plutôt que « on ne veut pas mettre d’argent à payer des modérateurices et puis quoi encore ? ». (Quoique en ce moment, il y a une bonne clarification des postes considérés comme utiles chez Twitter, et la modération n’en fait pas partie !).

 

On pourra me dire : «oui mais un robot, c’est fiable car ça prend toujours les mêmes décisions !»

Et c’est peut-être vrai, mais pourquoi avons-nous besoin d’une modération qui ne bouge pas dans le temps ? Comment s’améliorer, comment faire évoluer nos pratiques si toute la connaissance est refilée aux robots ?

 

Nous avons besoin de remettre de l’humain dans nos médias sociaux, et déléguer aux robots ne fait que contourner le problème.

 

Twitter a besoin que les gens soient blessés

 

Enfin, de par le fonctionnement même de Twitter, le réseau social a besoin pour son modèle économique de gens qui souffrent, qui sont malheureux, blessés, en colère, pour gagner plus d’argent.

 

C’est le principe de l’économie de l’attention : plus vous restez sur un média social, plus vous partagez vos données, regardez des pubs, interagissez et faites rester les autres.

 

Et pour vous faire rester, rien de tel que de vous confronter à ce qui vous énerve, ce qui vous fait vous sentir mal, ce qui vous fait réagir.

 

Pour cela, les comptes d’extrême-droite sont de l’or en barre : ils passent leur temps à dire des saloperies, et à un moment l’une d’elle va forcément vous toucher plus particulièrement qu’une autre, soit parce que vous êtes concerné·e, soit parce que quelqu’un de votre entourage l’est.

 

Ensuite on cite le tweet concerné en disant qu’il faut surtout pas écouter ce genre de personne, on déconstruit l’argumentaire en un fil de huit tweets, tout cela augmente la visibilité du contenu initial et donc d’idées d’extrême-droite, personne n’a changé d’avis à la fin mais vous vous sentez sans doute encore moins bien qu’au début, ou plus énervé·e… et chouette pour Twitter, parce qu’être en colère ou triste ça rend davantage sensible à la publicité.

 

Vous l’aurez compris, il y a donc par nature un problème de fond : si Twitter vire tous les comptes d’extrême-droite, son chiffre d’affaire va chuter. Alors il peut promettre la main sur le cœur qu’il compte le faire, les yeux dans les yeux, et vous avez le droit de le croire.

 

Pour moi les résultats sont là, rien ne se passe, et il n’y a pas de raison que ça s’arrange avec le temps (au contraire !).

 

Oui mais… et la violence à laquelle sont soumis les modérateurices dans tout ça ?

 

Les entreprises capitalistes du numérique entretiennent savamment la croyance que puisqu’il y a de la violence dans le monde, il n’y a rien à faire, quelqu’un doit bien se farcir le taf ingrat de subir cette violence transposée sur les réseaux sociaux, et ces personnes, ce sont les modérateurices.

 

Je ne suis pas d’accord.

 

Je pense que nous pouvons collectivement améliorer de beaucoup la situation en priorisant des technologies qui prennent soin des humains, et qu’il est immoral de perpétuellement déléguer le travail de soin (des enfants, de la maison, des espaces en ligne) à des personnes qui sont toujours plus mal payées, plus précaires, plus minorées, à l’autre bout du monde…

 

Nous pouvons avoir des réseaux qui fonctionnent correctement, mes articles sur Mastodon en font l’exemple.

 

Est-ce que c’est parfait ? Non, mais au moins, la modération est gérée à petite échelle, sans la déléguer à des personnes inconnues qu’on rémunère de façon honteuse pour faire le « sale travail » en leur détruisant la santé.

 

Et si à terme Mastodon grossit tellement qu’il sera soumis aux contenus les plus atroces, et que cela rendra la modération impossible ou complètement délétère pour les modérateurices, eh bien il sera temps de l’améliorer ou de tout fermer. Parce que nous pouvons aussi faire le choix de ne pas utiliser un outil qui abime certain·es d’entre nous plutôt que de fermer les yeux sur cette violence.

 

Peut-être que le fonctionnement fondamental des réseaux sociaux a finalement des effets délétères intrinsèques, mais pourquoi se limiter à ça ? Pourquoi ne pas discuter collectivement de comment faire mieux ?

 

Et sur un autre registre, il est aussi possible de mettre de l’énergie en dehors de la technologie, sur un retour à plus de démocratie, plus de débat apaisé. Parce que peut-être que si chacun·e retrouve une confiance sur le fait que son avis et ses besoins seront entendus, il sera possible de retrouver collectivement plus de sérénité, et cela se ressentira sûrement dans nos interactions numériques.

 

Un autre monde (numérique) est possible, il nous reste à le construire, pour contribuer à une société empreinte de justice sociale où le numérique permet aux humain·es de s’émanciper, à contre-courant des imaginaires du capitalisme (de surveillance).

 

« Mastodon, c’est chouette » sur Grise Bouille, par @gee@framapiaf.org
https://grisebouille.net/mastodon-cest-chouette




L’aventure de la modération – épisode 4

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le quatrième.

Alors maintenant que je vous ai dit tout ça, faisons un petit bilan des avantages et surtout des limites de ce système !

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Les avantages

Je vais être courte parce que mon point n’est pas ici d’encenser Mastodon, donc je ne creuserai pas trop les avantages. Cependant je ne peux pas m’empêcher de remettre en avant deux points majeurs :

Indéniablement, on bloque très vite les fachos. C’est quand même, à mon avis, le grand intérêt, qui n’est pas assez connu au-delà de Mastodon. De ce fait nous avons une exigence collective très faible par rapport à la modération : quand Twitter annonce qu’il ne peut pas faire mieux, on le croit sur parole alors qu’une alternative sans moyens d’envergure y arrive… Journalistes spécialisés si vous lisez ce message !

 

Ensuite, le fonctionnement est beaucoup plus démocratique car : ce sont des humains que vous choisissez qui font la modération. Et ça, ça change beaucoup de choses. Déjà parce qu’on est dans un fonctionnement beaucoup plus… artisanal de la modération, donc potentiellement avec plus de proximité, dans l’idéal on peut discuter / appeler à l’aide ses modérateurices… et même selon les endroits, proposer de participer à la modération et ça, ça compte pour se rendre compte du boulot que c’est, et participer aux décisions importantes !

 

Les limites

 

Comme rien n’est parfait, et que nous sommes sur une alternative qui évolue tout le temps, quelques points qui restent des limites malgré le modèle anti-capitaliste de Mastodon.

 

Temps de traitement d’un signalement

 

Il y a un difficile équilibre entre le temps de traitement d’un signalement et le temps d’entendre plusieurs avis du collectif de modération. Je pense qu’il est sain de prendre le temps, mais il y a des situations où l’un·e des modérateurices peut considérer qu’il y a « urgence » et dans ce cas, attendre 48h c’est beaucoup (pour protéger une personne par exemple). C’est un point que nous n’avons pas encore creusé à Framasoft (comment gérer le dilemme rapidité d’action vs. disponibilité du collectif), mais que je me note de rajouter en discussion pour nos prochaines retrouvailles !

 

Encore une fois je parle là des cas difficiles à départager. Si il s’agit de pédopornographie, les salariés de Framasoft sont déjà habitués à devoir réagir rapidement pour supprimer le contenu, donc je ne traite pas ce sujet ici car il n’est pas spécifique.

 

Beaucoup d’utilisateurices, beaucoup de problèmes

Framasoft est une association très connue, et nos utilisateurices nous choisissent souvent car iels ont confiance en nous (merci !).

Mais cela entraine une responsabilité compliquée à gérer : plus de monde chez nous, ça nous fait plus de travail, de modération notamment.

 

Aussi, dans un cadre plus large qui était celui de la déframasoftisation d’Internet, nous avons fermé les inscriptions, ce qui nous a permis d’alléger la charge de notre coté.

 

Et comme tous les Mastodon sont interconnectés, il est possible d’aller s’inscrire ailleurs pour suivre ce qui se passe chez nous, donc c’est un fonctionnement technique qui nous permet de mieux vivre le travail de modération… youpi !

 

Éviter la « spécialisation » des modérateurices

 

Lors de la mise en place d’une équipe de modération à Framasoft, il a fallu faire un petit temps de formation-découverte à l’interface de modération de Mastodon.

 

Or on a vu apparaitre assez rapidement une « spécialisation » entre celleux qui « savaient » utiliser l’interface, et celleux qui n’osaient pas car ne « savaient pas » l’utiliser.

 

Pourtant il y a beaucoup de valeur à ce que la connaissance autour des outils circule auprès de tou·tes celleux que cela peut intéresser :
— Pour qu’il y ait de plus en plus de modérateurices, ce qui répartit le temps dédié à la modération,
— Pour que la discussion soit ouverte à des personnes qui n’ont pas la tête plongée dans la modération, ça permet d’entendre d’autres paroles, c’est appréciable.

 

Pour résoudre ce problème, nous avons organisé des visios de modération !

C’est une pratique que nous avons dans ma coopérative : faire des tâches chiantes, c’est quand même bien plus sympa ensemble !

Alors quand l’un de nous disait « bon, là, il y a quand même beaucoup de signalements qui s’accumulent » je répondais parfois « ça vous dit on fait une visio pour les traiter ensemble ?! »

 

Nous n’avions pas besoin d’être beaucoup, à 2, 3 ou 4 c’était déjà bien plus sympa, même les contenus agressifs sont plus faciles à traiter quand les copains sont là pour faire des blagues ou râler avec toi ! Nous lancions un partage d’écran, idéalement d’une personne pas hyper à l’aise pour l’accompagner, et nous traitions les signalements.

 

Autre effet bénéfique : la boucle de « je demande leur avis aux copaines, j’attends, je traite le signalement » est raccourcie car nous pouvons collectivement débattre en direct du problème. C’est vraiment une façon très sympa de faire de la modération !

 

Les « On va voir » et autres « On peut pas savoir »

 

Enfin, si tout cela est possible actuellement, une part de moi me demande si ce n’est pas dû au fait que Mastodon passe encore « sous les radars ».

C’est un sentiment que j’ai tendance à minimiser vu que cela ne nous a pas empêché d’avoir des hordes de comptes d’extrêmes droites qui se ramenaient. Donc une part de moi pense que le réseau (qui a déjà six ans donc on est loin du petit truc tout nouveau qui a six mois) a un fonctionnement déjà résilient.

Et une autre partie de moi sait qu’elle n’est pas voyante, donc on verra bien dans le futur !

 

Par contre je voudrais insister sur le fait qu’on ne peut pas savoir. Tous les articles qui vous expliqueront que Mastodon ne peut pas fonctionner parce que « intégrer un argument d’autorité sur le fait que ce n’est pas assez gros » ne sont pas mieux au courant que les utilisateurices et administrateurices depuis des années. Et je n’ai pour l’instant vu aucun argument pertinent qui aurait tendance à montrer que le réseau et ses modérateurices ne peut pas supporter une taille critique.

 

Comme d’hab, le secret : il faut prendre soin

 

Cette conclusion ne va étonner personne : La solution pour une bonne modération, c’est de prendre soin.

 

Prendre soin des utilisateurices en n’encourageant pas les discours haineux (techniquement et socialement), en ne les propageant pas (techniquement et socialement).

 

Prendre soin des structures qui proposent des petits bouts de réseaux en leur évitant d’avoir trop de pouvoir et donc trop de responsabilités sur les épaules (et trop de coûts).

 

Prendre soin des modérateurices en les soutenant via un collectif aimant et disponible pour leur faire des chocolats chauds et des câlins.

Cher·e modérateurice qui me lis, tu fais un boulot pas facile, et grâce à toi le réseau est plus beau chaque jour. Merci pour ton travail, j’espère que tu as un collectif qui te soutiens, et que se soit le cas ou non, pense à avoir sous la main le numéro d’un·e psychologue, au cas où un jour tu tombes sur quelque chose de vraiment difficile pour toi/vous.

 

Cœur sur vous <3

 

Et pour finir ?

Je n’ai pas pu m’empêcher de conclure avec un billet dédié au contraste entre mon expérience de la modération et ce qui se passe sur Twitter. La semaine prochaine paraîtra donc un billet spécialement dédié à l’oiseau bleu : et Twitter alors ?




L’aventure de la modération – épisode 3

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le troisième.

Les cas d’étude c’est bien sympa, mais cela ne donne qu’une vision partielle du fonctionnement. Aussi je vais détailler ma montée en compétence sur la modération, et celle du collectif parce que ça fait partie des solutions à mettre en place pour que se soit un boulot le moins délétère possible !

 

Les outils accessibles via Mastodon

Mastodon permet, pour les utilisateurices inscrites chez nous de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— supprimer un message
— limiter la visibilité du compte à ses abonnés seulement
— suspendre le compte sur un temps restreint
— supprimer le compte définitivement
— contacter l’utilisateurice par message privé
— contacter l’utilisateurice par mail
— bloquer un Mastodon entier (!!) (aussi appelé instance).

 

Pour les utilisateurices qui ne sont pas chez nous, il est seulement possible de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— limiter la visibilité du compte à ses abonnés
— bloquer le compte
— contacter l’utilisateurice par message privé.

 

Lorsqu’une personne effectue un signalement, nous recevons une notification par mail si :
— la personne faisant le signalement se trouve chez nous
— la personne signalée est chez nous ET que la personne ayant fait le signalement a demandé explicitement à ce que nous le recevions.

 

Les signalements les plus importants à gérer étant évidemment ceux concernant des personnes se trouvant sur notre (instance de) Mastodon et ayant un comportement problématique. Actuellement, la majorité des signalements pour lesquels nous sommes notifiés sont faits par une personne inscrite chez nous à propos de contenus qui se trouvent ailleurs, sans doute pour prévenir les modérateurices de l’autre Mastodon qu’il y a quelque chose à regarder de leur coté.

 

Au fur et à mesure du temps, j’ai l’impression que si les signalements ne sont pas liés à du contenu chez nous, et ne sont pas explicitement problématiques, on peut laisser la responsabilité d’agir aux modérateurices des autres instances.

 

L’important étant de bien s’occuper de ce qui se trouve chez nous. 🙂

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

Comment ça se passe ?

Donc une fois la notification par mail reçue, on se connecte à un compte avec les droits de modération (pour certains leur compte personnel, pour d’autres le compte de modération que nous avons créé à la sortie de la charte pour avoir un compte dédié à ce sujet). Nous avons accès à une interface récapitulant le compte concerné, les contenus signalés, le message du signalement expliquant pourquoi il a été effectué (extrêmement important car sinon on perd énormément de temps à comprendre ce qui est reproché) et quelques autres indicateurs (notamment le nombre de signalements déjà effectués, pratique pour repérer les récidivistes).

 

Démarre ensuite dans la grande majorité des cas un travail d’enquête afin de comprendre le contexte. C’est une action extrêmement chronophage mais qui nous permet de savoir si la personne a une façon de se comporter correcte, un peu pénible ou carrément problématique, ce qui va influencer le niveau de sévérité de l’action de modération.

 

Si nous avons de la chance, il suffit de parcourir une dizaine de contenus, mais parfois la personne a partagé des vidéos, et il est nécessaire de regarder l’entièreté de la vidéo pour se rendre compte de son caractère problématique… ou non. C’est comme cela que je me suis retrouvée à regarder vingt minutes d’une vidéo célébrant le Brexit où se trouvaient Asselineau, Nicolas Dupont-Aignan, Florian Philippot. Quel excellent moment.

 

C’est ce travail de contextualisation qui explique pourquoi il est extrêmement important, lorsque vous réalisez un signalement, de mettre le plus de détails possibles : quels sont les contenus incriminés ? Pourquoi pensez-vous que cela mérite une action de modération ? Trop souvent nous avons un signalement composé d’un seul pouet, hors contexte, qui nous oblige à nous y attarder bien plus que si on nous avait fourni des explications détaillées. (Merci pour nous !)

 

Une fois cette contextualisation réalisée, il est temps de se décider… est-ce qu’il y a quelque chose à faire ? Est-ce qu’on supprime les contenus incriminés ? Est-ce qu’on contacte la personne ?

 

À Framasoft nous avons un tchat dédié à la modération, dans lequel nous partageons notre analyse du contexte, le signalement, et nous proposons l’action ou les actions qui nous semblent les plus appropriées. L’idée est de pré-mâcher le travail aux copaines tout en n’ayant pas à porter seul le poids de la décision de la « bonne » action de modération à réaliser.

 

Donc une fois que j’ai une idée de ce qui me semblerait « le mieux » à faire (ou pas), je demande leur avis aux copaines sur ce tchat. Il y a ensuite un petit temps d’attente nécessaire, pas problématique dans la plupart des cas mais très stressant quand la situation revêt un caractère « d’urgence », et que quelques heures comptent (par exemple si quelqu’un commence à se prendre une vague de harcèlement, plus vite on peut la protéger mieux c’est).

 

Si on n’est pas d’accord, on discute, jusqu’à tomber d’accord ou ne pas tomber d’accord et utiliser la règle du « c’est qui qui fait qui décide ». Donc si on se dit « cette personne il faudrait la contacter pour lui expliquer » mais que personne n’a l’énergie de rédiger quelque chose… ben on fait différemment en choisissant une action qui tient compte du niveau d’énergie des modérateurices.

 

Et enfin, on réalise l’action de modération « finale » qui, si elle est technique, est hyper rapide (nonobstant un petit message pour prévenir si on a envie d’en faire un), mais qui si elle est dans la « communication » n’est que le début du chemin !

 

J’espère que cela vous permet de davantage mesurer l’effort invisible qu’est la modération : Recevoir la notification, Identifier le niveau d’urgence, Contextualiser, Synthétiser, Trouver une décision juste, la Soumettre au collectif, Attendre les retours, Discuter, Agir, peut-être Répondre… 9 à 10 étapes qui ne sont vues de personne, excepté si les contenus ou le compte sont purement et simplement supprimés. Il est donc très facile de dire que « rien » n’est fait alors que ça s’active en coulisses.

 

De plus, dans un monde où tout et n’importe quoi est « urgent » autant vous dire que ça n’est pas facile de prendre le temps de décider sereinement d’une action la plus juste possible alors que précisément, cela demande du temps de ne pas réagir sur le coup de l’émotion !

 

L’anonymat des modérateurices

 

Lorsque j’ai débuté la modération, j’avais dans l’idée qu’il était important que les modérateurices soient clairement identifié·es pour qu’il soit plus simple de savoir d’où iels parlent. Non seulement pour savoir si iels sont directement concerné·es par certaines oppressions systémiques, mais aussi pour pouvoir avoir un œil sur leur niveau de déconstruction (ce n’est pas parce qu’on est une meuf et donc qu’on subit le sexisme que cela nous donne un badge « a déconstruit le patriarcat », loin de là).

 

J’en suis complètement revenue, ou plutôt j’ai bougé sur ma position : ce ne sont pas les individus qu’il faut connaitre, mais la position d’un collectif, et savoir si on a envie de faire confiance à ce collectif… ou non !

 

Pourquoi ce changement ? Déjà parce que lors de la vague de harcèlement que nous avons subie à la publication de la charte, la violence était très intense alors que je n’étais pas directement citée : c’était le compte de l’association (@Framasoft@framapiaf.org) qui l’était, et je ne voyais que ce qui tombait dans mon fil ou ce que j’allais voir de moi-même (enfin en étant sous le coup de la sidération, moment où l’on a pas toujours les bonnes pratiques : maintenant je ferme l’ordinateur pour m’éloigner du flot).

 

Si j’étais frustrée de ne pas pouvoir mettre de visage « humain » sur les personnes qui avaient écrit cette charte, j’ai surtout été très protégée par mon anonymat du moment. Et j’ai pu choisir, en mes termes et dans un timing que j’ai choisi, de partager mon ressenti sur la situation (avec l’article intitulé Dramasoft du nom du hashtag utilisé pour l’occasion).

 

Et je me souviens que je savais très clairement que je prenais un grand risque en communiquant sur ma participation à cette charte (et j’ai fait attention à ne pas parler des actions de modération en tant que telle dans un espoir de limiter l’impact). Le fait d’en contrôler la totalité de la publication, quand, sur quel support, auprès de qui, quand je me suis sentie prête, m’a énormément protégée.

 

Je reviens d’ailleurs sur une partie de ce que j’ai énoncé au-dessus, l’importance de

savoir si iels [les modérateurices] sont directement concerné·es par certaines oppressions systémiques

 

Je pense à présent qu’il est très problématique de penser pouvoir regarder un·e individu pour se permettre de juger de si iel ferait un·e bon·ne modérateurice : ce sont les actions et la direction dans laquelle se dirige le collectif qui compte. Nous ne pouvons pas déterminer, de par quelques pouets ou contenus partagés, si une personne est « suffisamment » déconstruite ou non.

 

Pire, cela nous encourage à faire des raccourcis, qui peuvent être d’une violence inouïe. Aussi, il nous a par exemple été reproché de concevoir une charte pour des enjeux de modération dont nous n’avions pas conscience, notamment parce que nous n’avions pas de personnes concerné·es par les oppressions systémiques dans l’équipe (qui seraient composés de mecs cis, het, blancs…).

Déjà c’est faux, car il y a des femmes qui subissent le sexisme qui en font partie (dont moi par exemple !) mais surtout parce qu’il n’est pas possible de savoir quel est le contexte et l’identité de chacun·e des membres, et notamment si certain·es seraient par exemple dans le placard, cachant soigneusement leur identité ou orientation sexuelle.

Rendez-vous compte de la violence, pour quelqu’un qui n’a pas fait son ou ses coming-out, de recevoir de la part d’adelphes qui sont dans le même groupe oppressé qu’elle un message sous entendant qu’elles ne sont pas légitimes puisqu’elles ne sont pas out. La violence est infinie, et je crois que c’est ce qui m’a mise le plus en colère dans cette histoire, car je ne pouvais pas vérifier si des membres étaient touché·es par ces accusations (puisque n’ayant pas fait leur coming-out… vous m’avez comprise).

 

Aussi, à nouveau, je pense que la solution repose sur le collectif, pour pouvoir à la fois s’adresser à quelqu’un tout en protégeant les individus.

À Framasoft, nous avons publié cette charte et ouvert un compte modération derrière lequel chaque membre peut lire les messages, et nous agissons pour des personnes qui nous font confiance. Plus récemment encore, nous avons re-partagé notre vision du monde dans notre manifeste, sans compter les nombreuses conférences et articles de blog qui expliquent comment nous nous positionnons. Si cela ne suffit pas aux utilisateurices, ils peuvent nous bloquer ou aller ailleurs, sans animosité de notre part : nous faisons avec nos petits moyens.

 

Le temps passé

 

Une question qui m’a été souvent posée c’est : Combien de temps vous y passez, à faire de la modération ?

 

Alors déjà il y a une grosse différence de temps passé entre le moment de mise en place de la charte de modération, et maintenant.

 

Lors de la mise en place de la charte et environ un an ensuite, nous étions sur quelques heures par semaine. Actuellement, c’est plutôt quelques heures par mois, et pour des cas moins complexes à gérer (même si on n’est pas à l’abri d’une vague de harcèlement !). Et c’est à mettre au regard du nombre : 1600 utilisateurs actifs chez nous, 11 000 inscrit·es (donc beaucoup de comptes en veille) et 6 millions d’utilisateurs au total sur tout le réseau.

 

Cette immense différence s’expliquer par deux raisons :
– Nous avons viré tous les relous.
– Nous avons fermé les inscriptions, et donc il n’y a plus de nouveaux.

 

Les utilisateurices qui restent sur framapiaf sont celleux qui ne nous demandent pas trop de boulot, et donc on s’en sort bien !

 

Mais je pense que même sur une instance dont les inscriptions restent ouvertes, on doit gagner en tranquillité grâce aux blocages d’instances déjà effectués et à la montée en compétence de l’équipe de modération (si l’équilibre est entretenu pour que les modérateurices restent, ça veut dire que le collectif en prend suffisamment soin !).

 

Note : Si les chiffres d’Olivier Tesquet sont bons (je n’ai pas vérifié), il y a en fait sur Mastodon une bien meilleure façon de modérer que sur Twitter parce que les modérateurices seraient juste… plus nombreuxses ?

 

Mastodon compte aujourd’hui 3615 instances, c’est à dire 3615 politiques de modération potentiellement différentes.
Au passage, ramené au nombre d’utilisateurs actifs, ça fait au moins un modérateur pour 250 mastonautes. Sur Twitter, c’est un pour… 200 000.

Et après ?

C’est l’heure de faire un petit bilan de cette triplette d’articles ! Ce sera dans le prochain épisode !




Collectivise the Internet : Three years to Ruffle the Feathers of Surveillance Capitalism

If the major issue in the digital world is systemic (a system called Surveillance Capitalism), then the answer cannot be limited to  » individual degoogleizing initiatives ». Our new roadmap Collectivise the Internet / Convivialise the Internet 🦆🦆  is all out on providing digital tools for non-profit organizations and collectives that work for the common good and the good of the Commons.

Let us tell you this story…

This article was published in French in October 2022 as part of the launch of Framasoft’s new roadmap Collectivise the Internet / Convivialise the Internet.

Simple banquet, in a shared garden, where free-software mascot animals are being served by Collectivise, convivialise ducks - Illustration by David Revoy - Licence: CC-By 4.0
Collectivise, convivialise – Illustration by David Revoy – License: CC-By 4.0

Emancipating Ourselves from Googles’ Industrial Animal Farmland

At Framasoft, we learn by doing. With every new campaign, with every new three-year roadmap, we try to apply lessons from the past. And every time, we discover more about our own misconceptions, our mistakes and ways forward to fix them.

During the Degoogleize The Internet campaign (2014-2017), we have learned that, although our small association could not degoogleize the whole planet, there is still a great deal of people who show interest in web-based tools that respect their values and integrity. Providing Free and open-source services to a as many people as possible ensures a large-scale deployment, even if that means risking focusing the demand and expectations on us. During this time period, we also initiated the alternative hosting collective CHATONS (an acronym that also means « kitties », in French), so that other hosts could join us in this adventure.

Then, we started the Contributopia roadmap (2017-2020), in which we contributed to many collective, popular and federated project, therereby meeting like-minded contributors, with whom we share the common values of sharing, fairness, caring, and emancipation, free and open-source software (FOSS) values that attracted us. We’ve come to realize, walking down this path, gathering and relating, that digital choices are societal choices, and that the choices made by FANGs are the pillars of a system: surveillance capitalism.

Illustration Quit planet GAFAM NATU BATX , CC BY David Revoy
« Quit planet GAFAM NATU BATX » Illustration by David Revoy – License: CC-By 4.0

Entire books are merely attempting to define what surveillance capitalism is, so what we are sharing here is just a rough summary of what it actually is. Surveillance capitalism is a system that transforms collective behaviours into data sets by prioritizing profit and power above all. The aim is to sell prediction and manipulation of our future behaviours, generally as commercial, cultural or electoral propaganda. In order to do so, some mega corporations try to establish monopolies on digital tools that maximize the acquisition and monopoly on our attention.

Simply put, surveillance capitalism creates industrial data farms, where we are the cattle. On the one hand, we are force-fed with attention mush (enriched with ads), and, on the other, part of our lives and our social behaviours are snatched from us to be resold to prosperous buyers at premium price.

That is why, at Framasoft, we have developped tools designed away from the values pushed by this system. Among the solutions we developed are PeerTube, a video platform software, and Mobilizon, a group and events management system. However, these tools require an entire group of people managing, maintaining, drafting and ensuring its editorial policy, and moderating: many small organizations do not have the human ressources to handle this in-house.

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Requiring digital tools that do not give goose bumps

From 2019 to 2022, we also ran the Déframasoftisons Internet action plan. We closed several projects which were underused or available through other trusted « CHATONS » hosts. This allowed us to save some energy for future projects, to reinforce our will to take care of our organization by avoiding unreasonable growth or restructuring that would disrupt our collective and the way it operates – which has made us pretty effective so far! – but especially to promote the decentralization of ethical digital tools.

Between 2020 and 2022, right in the middle of a gobal pandemic that confirmed our general dependency on online services, we intensified our efforts in maintaining our actions. Incidentally, we revised our plans for « Let’s deframasoftize » and chose to maintain some of the tools we intended to restrain or close: Framalistes, Framagit, Framateam, Framacalc…. We made that choice because we could see little to no other alternatives, and we did not want to let so many people down.

During this period of forced isolation, a pressing need began to be voiced more and more:

I am willing to ‘degoogle-ize’ myself, but I need someone to assist me, who can be here, in person to help me throughout this transition.

a pastry chef kitten presenting a cake-cloud prepared on demand, while in the background other kittens cook another cake-cloud in the middle of their cat-scratching tree village
Emancip’Asso – Illustration by David Revoy – License: CC-By 4.0

We have been hearing this need for this kind of human, tangible support for a while, and this is not unexpected. One of the mechanisms of capitalism is to individualize (« the customer is always right ») so as to better isolate and place the responsibility on each of us. For example, the information that we name « personal data » is neither personal nor data: it is more accurately the digital harvesting of our lives linked to those of others. Those are our social behaviours.

Conversely, if so many organizations, federations, etc. are so efficient in their task for the common good (whether they help us discover knitting or fighti climate inaction), it is precisely because they rest on the enjoyment of being and doing together, on the joy of meeting and exchanging, on the human warmth we find in the collective.

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Ducking out the slump thanks to conviviality

The future Big Tech is designing for us is one where humans are being:
* isolated – so that connections between humans rely solely upon their tools
* exploited – so that more and more tools are being created for us to consume
* singled out – so that no collective action is put in place that challenges their methods
* dependent – on their system of absolute monopoly
* greedy – so our lack of money can be weaponized against us
* competing – to pit us against each other and justify the rise of their elite class

This future that surveillance capitalism is designing for us as we speak, is neither engaging nor sustainable.. It treats both people and the Earth as a liability and will lead us straight to destruction.

On the other hand, trying to step out of our comfortable FOSS-enthusiasts’ bubble to try and reach out to other communities that are changing the world, has proved to be not as desorienting as we might have thought. We found that oftentime we shared the same utopias and the same definition of society: one based on contributing.

Drawing of five isles in a circle, each with buildings from different cultures. They are communicating together using waves and echoes.
ECHO Network – Illustration by David Revoy – License: CC-By 4.0

These « Contributopians » share the same dream as us: a future where humans are proud, autonomous, emancipated, knowledgeable, sharing and helpful to each other… a future where digital tools are under control, transparent, user-friendly and enhance the emancipation of human beings.

Thus, let’s summarize the lessons learned from our previous endeavours:

  • We did not yet have tools that fit the needs of the small organizations and associations that do so much with so little, but most of all with a lot of good will.
  • We are aware of the risk of remaining isolated, singled out in our « small, individual ‘degoogleization’ initiatives » against a whole system that can only be faced effectively through collective action.
  • We can see how crucial it is to put humans back at the center, the need for human presence and kindness when assisting others throughout their transition towards ethical digital practises.
  •  We have been able to confirm that a good number of associations and organizations from civil society which are working for the commons share with us these common values.

These patrons/champions of a « society of contribution » work hard to make our common dreams a reality.

 Long story short: it’s high time we degooglized the Contributopians!

(… those who wish to be, of course. We have never forced anyone to do anything, and we won’t start now!)

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Finding warmth with the jolly fellows

The four long-term actions we introduced in the article « Convivialise the Internet » 🦆(Framaspace, Émancip’Asso, ECHO Network, Peer.tube) all serve the same purpose: to equip organizations with online tools that fit their values.

These four projects rely on the strength of the collective while also taking into account the known constraints and limits that associations face. Kindness alone cannot magically and miraculously provide people with knowledge, time and means to train to use Nextcloud, PeerTube and other ethical tools.

 

Sepia, PeerTube cuttlefish mascot, is by the sea shore. She invites us on the pier where many sailboats berthed. Movies are played on the sails.
Peer.Tube – Illustration by David Revoy – License: CC-By 4.0

Similarly, the 39 members that compose Framasoft (10 of whom are employees) cannot spawn everywhere to personally train each and every new organization that wants to use, let’s say Framaspace, especially as that number could rise – with the help of your generous donations – up to thousands of organizations within 3 years!

That is why all of these projects are both about building a sense of community through shared spaces and some time allocated to community-building activities and sharing practices, challenges, etc., and providing support via coaching, improvements tailored for specific needs, and learning content to help people to be more autonomous and master the different tools, etc. Going blindly ahead with preconceived notions and a “we know best what works best for you” kind of attitude does not seem to be the most suitable — let alone humane — approach.

 

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Let’s steer our ship into a virtuous circle

We want to be efficient, so we want our tools to actually be used. Our goal is thus to make our tools useful – yeah, because designing tools that are actually useful is what disruptive innovation is all about, to make Tech for good that is community-owned and still very much online!)

We are thus planning not to plan everything, except time and space dedicated to your feedback. We also want to be available to tackle issues we might face on each of the actions that we feel ready to take. In other words, if we already plan to develop new features, create tutorials, host webinars and draft learning content, we do not want to predefine everything upfront, so as to save some time to help our users, our main target.

A unicorn dressed as an astronaut (with a spaghetti strainer on its head) is walking on the clouds and is blowing bubbles. Inside the bubbles, we can see cubes that represent collective work (files, toolboxes, books, typewriters, abacus, etc.)
Frama.space – Illustration by David Revoy – License: CC-By 4.0

This is the virtuous circle that we defined over the course of our various experimentations and that best fits our workflow:

1. Launch a first draft of our project, although imperfect

It’s OK if the paint is still fresh, or if it’s still a rough sketch. It’s absolutely OK too to start with a very small target audience. We have 3 years ahead of us to improve all that, and we have time and resources in store to do so.

For example, while we hope to provide millions of organizations with Framaspace within 3 years, it will be a good start to offer it to 200-300 organizations by the end of 2022!

2. Take users’ feedback into account

The Frama.space forum, the PeerTube community the study programs on ECHO Network and the comments received on Emancip’Asso are all important resources to gather feedback on our tools. It’d be too easy to lock ourselves in an echo chamber and avoid the reality of those who are actually fighting on the battlefield.
We go as far as considering the creation of an Observatory of Practices and Free Open-Source Digital Experiences, basing ourselves on the organizations that make up the Frama.sapce user community. Codename: OPEN-L. Stay tuned for that… And let’s hope we manage to set it up!

3. Improve our solutions step by step

Our goal is to improve each of those actions over time. This could be done by creating documentation and pedagogical tools, moderating and facilitating user communities, working on the ergonomy or on new features to be developed.
We want to keep total freedom to improve each action depending on the feedback we get from users.

4. Link humans to tools, and to other humans

Here’s another important, yet often overlooked aspect: connections. Such a shame, considering that the Web is, by definition, designed to connect people, ideas and things. This step can take many forms. It may mean taking the time to introduce our users to the new improvements brought about by each of our actions. It may also mean broadening our user community for any given project. Finally, it may mean taking advantage of having organizations share a common tool by sharing with them, offering them and informing them on what their fellows are doing.

Additionally, it will take some journaling: to summarize experiences, the lessons learned, to gather the relevant resources… and share all of that with the community. Whatever the form, this connecting step is when we take the time to reflect, to review our actions so as to better start a new virtuous circle and launch a better version of the project.

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

We ain’t no quacks. Please support us!

Ain’t gonna beat around the bush: Collectivise the Internet / Convivialise the Internet 🦆🦆 is a roadmap with a clear political purpose, in the sense that it shall contribute to changing the world (if only one byte at a time).

After eight years spent observing and informing the public on the future that Big Tech is already materializing for us day by day and the political choices that they are forcing on our societies, it feels more and more crucial to keep one corner of the Web free from their influence.

Such is « also » our role, because these new actions do not and will not replace the ones we are already conducting. All the ‘degoogleized » software already available to everyone, the development of PeerTube and Mobilizon, the FOSS collective CHATONS, the common cultural resources… All of these projects are still ongoing and will still require more work over the upcoming three years.

 

Portrait of a duck cheering in the foreground, while other ducks in the background are having a lantern-lit celebration among trees.
Quack-quack – Illustration by David Revoy – License: CC-By 4.0

If you agree with our set goals and strategy, if the actions that we are currently undertaking seem important to you, then we would like to remind you that Framasoft is exclusively funded by… You. It is only your kind contributions, eligible to a 66% tax cut for French taxpayers, that allow us to keep going in total independence.

If you can (as we are well aware that our current times are particularly harsh), and if you wish to, please support us.

 

🦆 Support Framasoft


This page has been translated from French to English by Framalang volunteers: Bastien, Bromind, Ellébore (proofreading), Goofy, GPSqueeek, Mathilde (proofreading), Stan, Susy