La médiation numérique est-elle soluble dans la médiation sociale ?

Lorsqu’en décembre 2021, Angie contacte Yann Vandeputte pour échanger autour de la quasi-absence de médiation aux pratiques numériques émancipatrices dans les espaces dédiés à l’accompagnement des citoyen⋅nes aux usages numériques, elle était loin d’imaginer que quatorze mois plus tard, elle lancerait une série d’articles rédigés par les membres du collectif « Lost in médiation » sur le thème La médiation numérique est-elle soluble dans la médiation sociale ? ! Et pourtant, c’est bien de vous plonger dans le monde de la médiation numérique que nous vous proposons pour ces prochaines semaines ! On commence avec un premier article de Yann Vandeputte qui nous présente la démarche et ses enjeux.

Yann Vandeputte est actif dans l’accompagnement aux usages numériques depuis 2004. Comme acteur de terrain pendant une douzaine d’années dans le secteur associatif, puis comme ingénieur de formation chargé de la certification « responsable d’espace de médiation numérique » du ministère du Travail.

« La médiation numérique est-elle soluble dans la médiation sociale ? », une question qui ressemble, dans sa formulation, à un sujet du bac. C’est le premier chantier que pose, comme acte fondateur, le collectif Lost in médiation. S’ouvrir aux autres secteurs et aux autres champs disciplinaires, avec lesquels la médiation numérique partage des gènes dans le grand ADN du care, est la motivation première du collectif. Sept professionnels ou anciens praticiens issus du monde associatif et institutionnel ont rendu leur copie. D’autres réponses pourraient suivre, nous l’appelons de nos vœux.

« Apprendre à se connaître et à se reconnaître ». Tel serait le besoin exprimé et le point de départ qui a animé la question délicate que j’ai posée fin décembre 2021 à une quinzaine d’acteurs de la médiation numérique, de la médiation sociale, du travail social et de la sociologie. Peu ont souhaité répondre gratuitement à cette question, un brin provocatrice, j’en conviens, et je profite de cet espace qui nous est cordialement offert par Framasoft pour remercier les premiers courageux qui ont relevé le défi. L’enjeu de cette demande était d’interroger la médiation numérique au regard d’autres champs, d’autres acteurs qui l’entourent, la croisent, l’aiguillonnent ou simplement l’ignorent, par pure ignorance ou par aimable condescendance.

Photo Stefan Schweihofer – Pixabay

Les six articles qui ouvrent ce premier chantier seront présentés chaque jeudi sur cet espace d’expression libre qu’est le framablog :

  • 9 mars : Allons-nous vers un métier unique de la médiation numérique et sociale ? par Didier Dubasque
  • 16 mars : Où est passée la culture numérique ? par Vincent Bernard
  • 23 mars : Médiation sociale et médiation numérique : solubilité ou symbiose ? par Garlann Nizon et Stéphane Gardé
  • 30 mars et 6 avril : La translittératie numérique, objet de la médiation numérique. Analyse d’une expérimentation : remobilisation scolaire et articulation de médiations par Corine Escobar, Nadia Oulahbib et Amélie Turet

Et plus tard, peut-être, d’autres éclairages que vous souhaiteriez apporter à ce premier tableau ?

Des contributeurs à la croisée des champs

Cette série introductive de quatre articles associe six professionnels issus de la médiation numérique (Vincent Bernard, Garlann Nizon et Stéphane Gardé), du travail social (Didier Dubasque) et de la recherche en sciences humaines et sociales (Amélie Turet et Corine Escobar). Je ne déroulerai pas ici leur CV bien fourni. Je me limiterai à une courte présentation. Leurs articles respectifs étant leur meilleure carte de visite.

Didier Dubasque est l’auteur de Comprendre et maîtriser les excès de la société numérique et de Les Oubliés du confinement. Hommage aux plus fragiles et à ceux qui les aident, parus aux presses de l’EHESP. Impliqué dans le travail social depuis plus de trente ans au niveau départemental (Loire-Atlantique) et national, il a notamment coanimé les travaux du Haut Conseil du Travail Social (HCTS) sur les enjeux des pratiques numériques dans l’action sociale. Chroniqueur social, il anime le blog Écrire pour et sur le travail social et contribue au développement de l’association nantaise Le coup de main numérique.

Vincent Bernard est coordinateur de Bornybuzz numérique et juré pour le titre professionnel de Responsable d’Espace de Médiation Numérique. Il veille à inscrire dans ses pratiques de médiation numérique l’éducation aux médias, aux écrans et à la culture numérique. À ce titre, il associe régulièrement des travailleurs sociaux et des psychologues à des projets destinés aux adultes et aux jeunes publics. Il participe également à des publications collectives.

Garlann Nizon est cheffe de projet, formatrice et consultante en inclusion numérique depuis de nombreuses années, à l’échelle de la Drôme et de l’Ardèche dont elle a structuré les EPN et les actions, et de la région dont elle a coanimé le réseau d’acteurs Coraia puis Hinaura. En tant que salariée associée au sein de la CAE Prisme, elle est également administratrice à la coopérative La MedNum où elle représente le collège des médiateurs et personnes physiques. Toujours en coordination des acteurs de la médiation numérique drômoise (médiateurs et CNFS notamment), elle travaille également sur les sujets relatifs à la numérisation de la santé et les modèles économiques des structures de médiation notamment.

Stéphane Gardé est consultant-formateur engagé depuis presque vingt ans dans la médiation numérique. Son regard de philosophe ouvert aux cultures non occidentales et son intérêt pour les pédagogies actives lui ont permis pendant quinze ans d’accompagner, notamment en itinérance, des publics en situation d’illettrisme et d’illectronisme et différents acteurs de l’intervention sociale.

Corine Escobar est enseignante chercheure depuis plus de 40 ans, au service de l’égalité des chances. Institutrice en France, puis professeure de français en Espagne, suède et Allemagne, elle a expérimenté différentes pédagogies holistiques. Une thèse de doctorat en sciences de l’éducation lui a permis d’observer et d’évaluer la puissance associative au service des plus faibles. Déléguée du préfet depuis plus de 10 ans, elle accompagne les associations investies auprès des publics des quartiers prioritaires notamment sur la remobilisation éducative.

Nadia Oulahbib est chercheure et analyste clinique du travail en santé mentale, observatrice des scènes de travail dans le monde de la fonction publique, l’entreprise associative, coopérative, industrielle et également liés aux métiers du social. Elle apporte son soutien à la parole sur le travail pour entretenir le dialogue collectif. Elle est aussi maîtresse de conférences associée pour l’UPEC.

Amélie Turet est docteure qualifiée en sciences de l’information et de la communication, chercheure associée à la Chaire UNESCO « Savoir Devenir » et au MICA, enseignante à l’UPEC sur le numérique dans l’éducation populaire et l’ESS, spécialiste de l’appropriation socio-technique des dispositifs liés au numérique. Membre de l’ANR Translit, elle a présenté ses travaux sur la médiation numérique lors des rencontres EMI de l’UNESCO à RIGA en 2016. CIFRE, diplômée de l’université Paris-Jussieu en sociologie du changement, elle a conduit des projets de R&D dans le secteur privé puis au service de l’État sur la transformation numérique, la démocratie participative, l’inclusion numérique, la politique de la ville et l’innovation.

« Lost in médiation » : besoin de médiations pour des remédiations ?

Lost in médiation1 est né il y a plusieurs années d’une gêne personnelle due à un prurit chronique causé par l’irritant médiation. « Médiation » par-ci, « médiation » par-là, pour ci et pour ça, le pouvoir d’attraction de la blanche colombe m’a un jour donné le vertige et l’envie de lui tordre le cou pour commencer à lui faire rendre gorge. Le dessein, un peu violent et d’une prétention inouïe, tant la tâche est immense, demande que je m’explique et que je lance dans ces colonnes un appel à l’aide à toutes les bonnes volontés. Vouloir dissiper le brouillard qui entoure la notion de médiation et ses innombrables costumes2 et faux-nez est une entreprise qui relèverait de toute une vie. Quelques personnes plus savantes et plus talentueuses s’y sont déjà essayé et n’y sont pas parvenues.

Le projet Lost in médiation est plus modeste, certes, mais il ne se prive pas de questionner la composante « médiation » dans la médiation numérique. Nous espérons que des professionnels qui pratiquent d’autres médiations (sociale, artistique, documentaire, scientifique, conventionnelle, etc.) et d’autres types d’accompagnement dans les secteurs du travail social, du médico-social et de l’éducation populaire pourront alimenter le « processus de communication éthique » qui définit la médiation dite « conventionnelle3 ».

Un chantier ouvert pour faire acte de médiation ?

Lost in médiation se veut une œuvre collective ouverte où les expressions et les sensibilités peuvent prendre des formes variées : écrits (articles, témoignages, retours d’expérience, analyses de pratiques, etc.), podcasts sonores et vidéo, objets graphiques ou hybrides. La seule contrainte que notre ouvroir s’impose, c’est l’opportunité de croiser des regards intérieurs et extérieurs au secteur de la médiation numérique. Prendre le recul nécessaire permet, nous semble-t-il, de nous extraire des mécanismes réflexes, des recettes de cuisine, des formules toutes faites servant à nourrir la viralité et le prêt-à-penser qui favorisent les bulles informationnelles. Convoquer des pratiques et des cultures issues d’autres champs disciplinaires aide à nous décentrer, ouvre des horizons et nous donne une capacité à élargir nos réflexions et à entrevoir des pistes de solutions difficiles à imaginer quand se mettent en place des entre-soi. L’équation que Lost in médiation entend poser est donc « comment penser avec les autres pour penser contre soi-même ? ».

Inscrire la médiation numérique dans une généalogie ancienne

Si elle ne sort pas de la cuisse d’un Jupiter ni même de la côte d’un Adam, la médiation numérique n’est pas non plus une création ex nihilo. Au-delà du chaudron de l’éducation populaire dans lequel elle est tombée à sa naissance, nous postulons qu’elle porte derrière elle un bagage largement insoupçonné venant d’antécédents plus illustres et plus lointains n’ayant, en apparence, aucune connexion avec elle. Et pourtant. Qu’elle le veuille ou non, par l’adoption même du terme médiation qui plus est associé à numérique4, la voilà embarquée, bon gré mal gré, dans une histoire longue et touffue qu’elle va devoir un jour assumer si elle veut honorer ces deux blasons.

En prendre conscience permet de convoquer l’aide de ses ascendants et de les questionner avec assertivité. La médiation ne passe-t-elle pas inlassablement par des reformulations pour s’assurer que chaque participant, chaque acteur a bien saisi ce qui s’énonce ? Plus concrètement, éducateurs, animateurs, formateurs, penseurs et chercheurs en sciences humaines et sociales (SHS), artistes (et bien d’autres !), qui ont parlé, expérimenté et écrit sur les relations interpersonnelles et culturelles, le care, l’accompagnement et l’éthique, ont pleine légitimité à nous dire et à nous apprendre des choses sur nous-mêmes. Nous essaierons, le plus possible, dans notre projet ouvert, de les rappeler à notre bon souvenir.

L’aller vers en partage ?

La volonté de se mouvoir vers une altérité (humaine, non-humaine, conceptuelle) est partagée par toutes les médiations. Nous nous appuierons donc sur ce socle commun, représentant à nos yeux un avatar du principe de l’aller vers que nous empruntons au travail social et que nous tenterons d’appliquer au champ de la médiation numérique.

La traçabilité de la locution aller vers mériterait d’être établie. Je conseille pour commencer de lire les articles que Didier Dubasque a consacré à cette notion sur son blog. Il cite, entre autres, les travaux de son ami sociologue, Cyprien Avenel, qui rappelle que « l’aller vers n’est pas une pratique nouvelle […] il « renvoie aux fondamentaux du cœur de métier du travail social et de l’intervention sociale ».

Pour ce qui nous intéresse, cela ressemble un peu au jeu du « passe à ton voisin » qui marque une certaine porosité entre les champs d’intervention. Comme le terme médiation, cette expression est devenue désirable, car véhiculée à tour de bras. Elle est passée de mains en mains : du travail social à la médiation sociale qui l’a même inscrite dans sa norme AFNOR NF X60-600 conçue en 2016 et entrée en vigueur en 2021. On y lit, à la page 11, au deuxième paragraphe de l’article 3.1.2 Modalités d’intervention de la médiation sociale, que « le médiateur social intervient sur l’ensemble des espaces de vie de son territoire d’intervention et organise ses pratiques autour de deux principes directeurs : aller vers et faire avec la ou les personnes ».

Une nouvelle injonction pour de nouvelles pratiques

De fil en aiguille, l’aller vers, flanqué de son binôme faire avec, navigue et suture les différentes pièces de l’intervention sociale, jusqu’à arrimer aujourd’hui la médiation numérique. D’année en année, ses occurrences et ses déclinaisons augmentent significativement dans la prose institutionnelle consacrée à l’inclusion numérique, reprise à l’envi par certains professionnels du terrain. À titre d’exemple, l’aller vers est mentionné à plusieurs reprises dans l’Observatoire de l’inclusion numérique 2022 de la MedNum. Il faisait aussi l’objet d’un atelier au dernier Numérique en Commun[s] (NEC) 2022 à Lens et la Base du numérique d’intérêt général lui consacre la fiche Comment favoriser le « aller vers » dans mon quotidien ? destinée aux conseillers numériques France Services (CNFS).

La viralité est donc en marche, mais qui s’en plaindrait ? Qui refuserait d’aller porter assistance aux personnes qui ne poussent jamais la porte des espaces de médiation numérique ? Qui souhaiterait laisser pour compte celles et ceux qui ne manifestent aucune demande alors que leurs besoins élémentaires en termes d’accès au droit(s)5 ne sont pas satisfaits ? Absolument personne. Et pourtant, rappelle Didier Dubasque, ce déplacement qui provoque une inversion ne va pas de soi, car elle met le professionnel dans une « position basse », inconfortable : « ce n’est plus la personne qui demande, c’est le professionnel ».

L’heure est donc au démarchage tous azimuts. Il faut aller chercher les isolés à la force des jambes et du poignet, dans les moindres recoins. Les non-recours ne doivent plus avoir cours ! Est-ce à dire que les pratiques des professionnels de la médiation numérique ont radicalement changé ? Que la majorité d’entre eux sillonnent les routes de France, de Navarre et des îles pour aller au contact des usagers les plus éloignés, montent les étages des immeubles et font du porte-à-porte, arpentent les rues en faisant des maraudes ? Nous n’y sommes pas encore. Si peu aujourd’hui le font, la question qui se pose est bien de savoir s’ils en ont la capacité, la motivation et les moyens. Car ajouter une nouvelle mission, une nouvelle pratique, suppose la formation qui va avec et l’aller vers ne s’improvise pas. C’est un art de l’approche qui relève d’un artisanat social qui s’acquiert patiemment sur le terrain, par essais-erreurs, au rythme qu’imposent les publics accompagnés. Pour aller vers les autres, on doit bien apprendre à les connaître et à les reconnaître, on n’a pas le choix : il faut bien faire avec !

Le Réseau national Pimms Médiation, première éprouvette d’une médiation numérique OGM ?

Une fois encore, même si la solubilité de la médiation numérique n’est pas pleine et entière dans la médiation sociale, il n’empêche qu’une forme de mouvement de l’une vers l’autre s’est établi ces dernières années. Peu veulent le voir, l’acter ou le reconnaître, mais les technologies finiront bien un jour par les mettre d’accord. Car le numérique permet et accentue cette liquidité6, gomme petit à petit les frontières ou les rend plus floues.

Des structures comme les points d’information médiation multi services (PIMMS), dont le réseau national comprend aujourd’hui 100 lieux d’accueil de proximité, incarnent bien cette soudure. Ce n’est pas un hasard si le réseau a créé le mot-valise « médiation socio-numérique » pour qualifier sa pratique hybride. Ce mot, par contamination (ou par solubilité ?) est déjà repris par des acteurs du canal historique de la médiation numérique. Ce n’est pas non plus un hasard si ce même réseau des PIMMS, à la croisée des chemins, est membre du réseau France Médiation7 et sociétaire de la MedNum. Ses représentants participent régulièrement aux événements qu’organisent ces deux instances professionnelles de portée nationale.

La dématérialisation, vers une nouvelle forme d’œcuménisme ?

Par la force centripète qu’elle provoque, la dématérialisation administrative crée, à sa manière, de l’aller vers entre professionnels des trois sphères du champ social. Elle oblige des professionnels qui ne se fréquentaient pas (ou peu) à apprendre à s’identifier, à comprendre la culture et les contraintes des uns et des autres et, cerise sur le gâteau, à travailler en bonne intelligence afin de créer un « espace d’aide potentiel8 », une zone de confiance entre les différentes parties prenantes de dispositifs d’accompagnement : personnes accompagnées et professionnels accompagnants. L’enjeu est bel est bien de rendre fluides les échanges, d’éviter les ruptures pour les usagers, de limiter les incompréhensions, les lenteurs et les blocages. Ces évidences méritent d’être rappelées à l’ensemble des maillons de ce qui forme, dans le fond, une chaîne de solidarités professionnelles.

La médiation numérique a tout à apprendre de la médiation sociale et du travail social et inversement. « Assurer une présence active de proximité », « participer à une veille sociale et technique territoriale » sont des principes inscrits dans la norme de la médiation sociale que la médiation numérique devrait ou est en train de faire siens. Le principe de l’aller vers que nous avons à peine esquissé est connecté en permanence avec ces deux principes d’arpentage du territoire. Mais la réalité de terrain montre que les échanges « gagnants-gagnants » qui relèveraient d’une forme de symbiose – que décrivent Garlann Nizon et Stéphane Gardé – sont encore loin d’être la norme. En inversant le mouvement, il est clair que les médiateurs et travailleurs sociaux ont à s’inspirer des pratiques d’accompagnement aux usages numériques de leurs frères et sœurs d’armes conseillers et médiateurs numériques.

Fécondations croisées

A l’heure du Conseil national de la refondation (CNR) et de la future feuille de route pour la « stratégie nationale numérique inclusif » à mener dans les cinq années à venir, le groupe de travail 3 « formation-filière » était chargé récemment de réfléchir à la structuration de la filière de la médiation numérique et de la formation des futurs professionnels, des professionnels en poste et des aidants numériques. Dans le volet formation, il est souvent question de « socle commun de compétences ». S’il voit le jour, ce socle serait bien inspiré de cartographier au préalable les activités communes aux trois champs de l’intervention sociale, en lien direct ou indirect avec l’accompagnement aux usages numériques, pour en tirer les savoir-faire (techniques, relationnels, organisationnels) et les connaissances qui forment un génome commun : la compétence. L’aller vers fait partie de ces chromosomes qui constituent le génome, mais ce n’est pas le seul. Les professionnels des trois champs ont tout à gagner d’unir leur force en mettant au pot ce qu’ils ont de meilleur pour créer ensemble une variété robuste de médiation, résistante aux multiples variations de notre climat social et sociétal.

« Il n’y a pas de grande Nation numérique si nous laissons une partie de Françaises et Français sur le bord du chemin » disait Jean-Noël BARROT9 en préambule au « Plan France Numérique Ensemble ». Nous choisirons pour conclure de le paraphraser en affirmant qu’il n’y a pas de grande nation ni de grands professionnels qui ne sachent pas travailler main dans la main pour atteindre des objectifs communs, profitables à des territoires tout entiers. Par leur intelligence collective, leur courage et leur ténacité, les Ukrainiens nous enseignent l’adage au quotidien.

Alors, puisque la chimie, mère de nombreuses disciplines, est à l’honneur de notre sujet du bac, assisterons-nous plutôt à des phénomènes de solubilité, de synthèse, d’hybridation ou de symbiose entre les différents champs ? Nul ne peut le dire aujourd’hui. Probablement un peu des quatre. Nous ne pouvons que scruter l’horizon et nos pieds pour percevoir les moindres signaux, les moindres traces de ce changement en marche. L’histoire finira par trancher. Ce seront les contextes, les situations, les opportunités et les aubaines qui choisiront.

Un grand merci à Yann Vandeputte d’avoir partagé avec nous ses réflexions. Si cette longue introduction vous fait réagir, n’hésitez pas à partager vos réflexions en commentaires. On en remet une couche (de réflexion) dès la semaine prochaine…




Refusons la surveillance biométrique

Vous avez hâte de voir les JO de Paris en 2024 ? Non ? Roooh… et la petite loi surveillance qui va avec ? Vous avez hâte de la voir appliquée aussi ? Non ? Alors cette BD est pour vous…

BD réalisée dans le cadre de la campagne de la Quadrature du Net contre l’article 7 de la loi JO.

Refusons la surveillance biométrique

Comme vous le savez, la France doit accueillir les Jeux Olympiques et Paralympiques en 2024.

Gee, blasé : « Euuuh… ouaaaaiis…  on a gagnééé… » Geekette, blasée aussi : « On va pouvoir dépenser plein d'argent public et encore bétonner plus de terres pour un concours à l'organisation opaque qui ne profitera qu'à une poignée de gens… »

En plus de ces joyeusetés, côté sécurité/surveillance, c’est pas jojo non plus.

Ainsi, l’Assemblée nationale va se prononcer en mars sur un projet de loi relatif à ces jeux, et dont l’article 7 consiste à autoriser la vidéosurveillance automatisée.

Politicien enthousiaste : « “Vidéosurveillance automatisée”, je n'aime pas ces mots. Je préfère “vidéoprotection intelligente”. » Gee, feignant l'enthousiasme : « Et pourtant, c'est complètement con et ça ne protège pas ! Étonnant, non ? »

La VSA, c’est la vidéosurveillance accompagnée d’algo-rithmes qui analysent les corps et les comportements pour détecter des personnes « suspectes ».

Geekette : « C'est un peu comme Big Brother, mais… » Gee : « Mais quoi ? » Geekette : « Non rien. C'est carrément Big Brother, en fait. » Smiley : « Quand 1984 cesse d'être un exemple de dérive possible mais un exemple tout court, ça pue. »

C’est donc un outil de surveillance de masse qui reproduira les biais bien humains de manière automatique et à grande échelle.

Gee, en panique : « On sait que les personnes noires sont largement plus victimes de faux positifs sur la reconnaissance faciale que les blanches…  Là, avec l'analyse des comportements, ça va être quoi ? Les gens qui ont le regard fuyant ou qui marchent de travers vont être déclarés suspects ? » Smiley : « Z'avez qu'à marcher droit !  GARDE À VOUS ! »

Le pire, c’est que la VSA est déjà déployée dans plus de 200 villes en France en toute opacité, avec notamment le logiciel Briefcam de Canon, utilisé à Nice, Roubaix ou encore Nîmes, et bien d’autres…

Politicien excité : « Bah justement, c'est déjà là ! Ça va pas trop vous changer ! » Geekette : « Quand ça pue, en général, la logique, c'est pas de rajouter une couche de merde dessus… c'est de nettoyer ! » Politicien : « Nettoyer ?  Interdire la vente de logiciels de VSA ? Mais et la CRÔASSANCE, alors ? »

Ajoutons que ces logiciels fonctionnent par des méthodes d’apprentissage automatique de type deep learning, des boîtes noires qui ne sont réellement maîtrisées que par une poignée d’experts pendant que les start-uppers jouent aux apprentis-sorciers avec…

Start-upper, enthousiaste : « Regardez, on a détecté un suspect ! C'est pas trop bien, sans déconner ?! » Gee, méfiant : « Mais c'est quoi, le raisonnement logique qui l'a marqué comme suspect ? » Start-upper : « Euuuh, bah j'sais pas, euuuh…  deep learning…  réseau de gneurones…  euuuh…  C'est magique, quoi. » Gee : « Hyper-rassurant. » Smiley : « Tu le sens, que les possibilités de contrôle diminuent un chouïa ? »

Avec évidemment, en prime, la petite excuse classique si ça déconne : « c’est pas notre faute, c’est l’algorithme ».

Du coup je me permets de recycler ce dessin de ma BD « Google, l’espion le plus con du monde » :

Image extraite de la BD en question. Politicien : « Ah non mais c'est pas nous, c'est l'algori… » Gee qui met une mandale (« SBAF ! ») au politicien : « La ferme ! L'algorithme, c'est vous qui l'avez codé !  Les données d'entraînement, c'est vous qui les fournissez ! Y'a pas d'intelligence supérieure ou externe à l'œuvre, assumez vos merdes ! » Smiley : « Et pi si vous maîtrisez pas vos outils… ARRÊTEZ-LES ! »

Alors bien sûr, on nous dit que ça ne sera qu’une expérimentation pour les JO…

Ce à quoi l’expérience d’à peu près toutes les lois de merde soi-disant temporaires devenues permanentes devrait nous amener à répondre :

Gee, avec un poulet à la place des fesses : « And my ass is chicken ?  You want a wing ? » Le poulet : « PWAAAK ! »

C’est pour toutes ces raisons que la Quadrature du Net lance une campagne avec un récapitulatif des problèmes et contre-arguments, ainsi qu’une plateforme pour contacter vos députés et députées afin de les appeler à voter contre :

www.laquadrature.net/biometrie-jo

Note : BD sous licence CC BY SA (grisebouille.net), dessinée le 22 février 2023 par Gee.

Références :

Crédit : Gee (Creative Commons By-Sa)




Démystifier les conneries sur l’IA – Une interview

Cet article a été publié à l’origine par THE MARKUP, il a été traduit et republié selon les termes de la licence Creative Commons Attribution-NonCommercial-NoDerivatives
Publication originale sur le site themarkup.org

Démystifier le buzz autour de l’IA

Un entretien avec Arvind Narayanan

par JULIA ANGWIN
Si vous avez parcouru tout le battage médiatique sur ChatGPT le dernier robot conversationnel qui repose sur l’intelligence artificielle, vous pouvez avoir quelque raison de croire que la fin du monde est proche.

Le chat « intelligent » de l’IA a enflammé l’imagination du public pour sa capacité à générer instantanément des poèmes, des essais, sa capacité à imiter divers styles d’écrits, et à réussir à des examens d’écoles de droit et de commerce.

Les enseignants s’inquiètent de la tricherie possible de leurs étudiants (des écoles publiques de New York City l’ont déjà interdit). Les rédacteurs se demandent si cela ne va pas faire disparaître leur travail (BuzzFeed et CNET ont déjà utilisé l’IA pour créer des contenus). Le journal The Atlantic a déclaré que cela pourrait « déstabiliser les professions de cadres supérieurs ». L’investisseur en capital-risque Paul Kedrosky l’a qualifié de « bombe nucléaire de poche » et blâmé ses concepteurs pour l’avoir lancé dans une société qui n’y est pas prête.

Même le PDG de l’entreprise qui a lancé ChatGPT, Sam Altman, a déclaré aux médias que le pire scénario pour l’IA pourrait signifier « notre extinction finale ».

Cependant pour d’autres ce buzz est démesuré. Le principal scientifique chargé de l’IA chez Meta’s AI, Yann LeCun, a déclaré à des journalistes que ChatGPT n’a « rien de révolutionnaire ». Le professeur de langage informatique de l’université de Washington Emily Bender précise que « la croyance en un programme informatique omniscient vient de la science-fiction et devrait y rester ».

Alors, jusqu’à quel point devrions-nous nous inquiéter ? Pour recueillir un avis autorisé, je me suis adressée au professeur d’informatique de Princeton Arvind Narayanan, qui est en train de co-rédiger un livre sur « Le charlatanisme de l’IA ». En 2019, Narayanan a fait une conférence au MIT intitulée « Comment identifier le charlatanisme del’IA » qui exposait une classification des IA en fonction de leur validité ou non. À sa grande surprise, son obscure conférence universitaire est devenue virale, et ses diapos ont été téléchargées plusieurs dizaines de milliers de fois ; ses messages sur twitter qui ont suivi ont reçu plus de deux millions de vues.

Narayanan s’est alors associé à l’un de ses étudiants, Sayash Kapoor, pour développer dans un livre la classification des IA. L’année dernière, leur duo a publié une liste de 18 pièges courants dans lesquels tombent régulièrement les journalistes qui couvrent le sujet des IA. Presque en haut de la liste : « illustrer des articles sur l’IA avec de chouettes images de robots ». La raison : donner une image anthropomorphique des IA implique de façon fallacieuse qu’elles ont le potentiel d’agir dans le monde réel.

Narayanan est également le co-auteur d’un manuel sur l’équité et l’apprentissage machine et dirige le projet Web Transparency and Accountability de l’université de Princeton pour contrôler comment les entreprises collectent et utilisent les informations personnelles. Il a reçu de la Maison-Blanche le Presidential Early Career Award for Scientists and Engineers [N. de T. : une distinction honorifique pour les scientifiques et ingénieurs qui entament brillamment leur carrière].

Voici notre échange, édité par souci de clarté et brièveté.

Angwin : vous avez qualifié ChatGPT de « générateur de conneries ». Pouvez-vous expliquer ce que vous voulez dire ?

Narayanan : Sayash Kapoor et moi-même l’appelons générateur de conneries et nous ne sommes pas les seuls à le qualifier ainsi. Pas au sens strict mais dans un sens précis. Ce que nous voulons dire, c’est qu’il est entraîné pour produire du texte vraisemblable. Il est très bon pour être persuasif, mais n’est pas entraîné pour produire des énoncés vrais ; s’il génère souvent des énoncés vrais, c’est un effet collatéral du fait qu’il doit être plausible et persuasif, mais ce n’est pas son but.

Cela rejoint vraiment ce que le philosophe Harry Frankfurt a appelé du bullshit, c’est-à-dire du langage qui a pour objet de persuader sans égards pour le critère de vérité. Ceux qui débitent du bullshit se moquent de savoir si ce qu’ils disent est vrai ; ils ont en tête certains objectifs. Tant qu’ils persuadent, ces objectifs sont atteints. Et en effet, c’est ce que fait ChatGPT. Il tente de persuader, et n’a aucun moyen de savoir à coup sûr si ses énoncés sont vrais ou non.

Angwin : Qu’est-ce qui vous inquiète le plus avec ChatGPT ?

Narayanan : il existe des cas très clairs et dangereux de mésinformation dont nous devons nous inquiéter. Par exemple si des personnes l’utilisent comme outil d’apprentissage et accidentellement apprennent des informations erronées, ou si des étudiants rédigent des essais en utilisant ChatGPT quand ils ont un devoir maison à faire. J’ai appris récemment que le CNET a depuis plusieurs mois maintenant utilisé des outils d’IA générative pour écrire des articles. Même s’ils prétendent que des éditeurs humains ont vérifié rigoureusement les affirmations de ces textes, il est apparu que ce n’était pas le cas. Le CNET a publié des articles écrits par une IA sans en informer correctement, c’est le cas pour 75 articles, et plusieurs d’entre eux se sont avérés contenir des erreurs qu’un rédacteur humain n’aurait très probablement jamais commises. Ce n’était pas dans une mauvaise intention, mais c’est le genre de danger dont nous devons nous préoccuper davantage quand des personnes se tournent vers l’IA en raison des contraintes pratiques qu’elles affrontent. Ajoutez à cela le fait que l’outil ne dispose pas d’une notion claire de la vérité, et vous avez la recette du désastre.

Angwin : Vous avez développé une classification des l’IA dans laquelle vous décrivez différents types de technologies qui répondent au terme générique de « IA ». Pouvez-vous nous dire où se situe ChatGPT dans cette taxonomie ?

Narayanan : ChatGPT appartient à la catégorie des IA génératives. Au plan technologique, elle est assez comparable aux modèles de conversion de texte en image, comme DALL-E [qui crée des images en fonction des instructions textuelles d’un utilisateur]. Ils sont liés aux IA utilisées pour les tâches de perception. Ce type d’IA utilise ce que l’on appelle des modèles d’apprentissage profond. Il y a environ dix ans, les technologies d’identification par ordinateur ont commencé à devenir performantes pour distinguer un chat d’un chien, ce que les humains peuvent faire très facilement.

Ce qui a changé au cours des cinq dernières années, c’est que, grâce à une nouvelle technologie qu’on appelle des transformateurs et à d’autres technologies associées, les ordinateurs sont devenus capables d’inverser la tâche de perception qui consiste à distinguer un chat ou un chien. Cela signifie qu’à partir d’un texte, ils peuvent générer une image crédible d’un chat ou d’un chien, ou même des choses fantaisistes comme un astronaute à cheval. La même chose se produit avec le texte : non seulement ces modèles prennent un fragment de texte et le classent, mais, en fonction d’une demande, ces modèles peuvent essentiellement effectuer une classification à l’envers et produire le texte plausible qui pourrait correspondre à la catégorie donnée.

Angwin : une autre catégorie d’IA dont vous parlez est celle qui prétend établir des jugements automatiques. Pouvez-vous nous dire ce que ça implique ?

Narayanan : je pense que le meilleur exemple d’automatisation du jugement est celui de la modération des contenus sur les médias sociaux. Elle est nettement imparfaite ; il y a eu énormément d’échecs notables de la modération des contenus, dont beaucoup ont eu des conséquences mortelles. Les médias sociaux ont été utilisés pour inciter à la violence, voire à la violence génocidaire dans de nombreuses régions du monde, notamment au Myanmar, au Sri Lanka et en Éthiopie. Il s’agissait dans tous les cas d’échecs de la modération des contenus, y compris de la modération du contenu par l’IA.

Toutefois les choses s’améliorent. Il est possible, du moins jusqu’à un certain point, de s’emparer du travail des modérateurs de contenus humains et d’entraîner des modèles à repérer dans une image de la nudité ou du discours de haine. Il existera toujours des limitations intrinsèques, mais la modération de contenu est un boulot horrible. C’est un travail traumatisant où l’on doit regarder en continu des images atroces, de décapitations ou autres horreurs. Si l’IA peut réduire la part du travail humain, c’est une bonne chose.

Je pense que certains aspects du processus de modération des contenus ne devraient pas être automatisés. Définir où passe la frontière entre ce qui est acceptable et ce qui est inacceptable est chronophage. C’est très compliqué. Ça demande d’impliquer la société civile. C’est constamment mouvant et propre à chaque culture. Et il faut le faire pour tous les types possibles de discours. C’est à cause de tout cela que l’IA n’a pas de rôle à y jouer.

Angwin : vous décrivez une autre catégorie d’IA qui vise à prédire les événements sociaux. Vous êtes sceptique sur les capacités de ce genre d’IA. Pourquoi ?

Narayanan : c’est le genre d’IA avec laquelle les décisionnaires prédisent ce que pourraient faire certaines personnes à l’avenir, et qu’ils utilisent pour prendre des décisions les concernant, le plus souvent pour exclure certaines possibilités. On l’utilise pour la sélection à l’embauche, c’est aussi célèbre pour le pronostic de risque de délinquance. C’est aussi utilisé dans des contextes où l’intention est d’aider des personnes. Par exemple, quelqu’un risque de décrocher de ses études ; intervenons pour suggérer un changement de filière.

Ce que toutes ces pratiques ont en commun, ce sont des prédictions statistiques basées sur des schémas et des corrélations grossières entre les données concernant ce que des personnes pourraient faire. Ces prédictions sont ensuite utilisées dans une certaine mesure pour prendre des décisions à leur sujet et, dans de nombreux cas, leur interdire certaines possibilités, limiter leur autonomie et leur ôter la possibilité de faire leurs preuves et de montrer qu’elles ne sont pas définies par des modèles statistiques. Il existe de nombreuses raisons fondamentales pour lesquelles nous pourrions considérer la plupart de ces applications de l’IA comme illégitimes et moralement inadmissibles.

Lorsqu’on intervient sur la base d’une prédiction, on doit se demander : « Est-ce la meilleure décision que nous puissions prendre ? Ou bien la meilleure décision ne serait-elle pas celle qui ne correspond pas du tout à une prédiction ? » Par exemple, dans le scénario de prédiction du risque de délinquance, la décision que nous prenons sur la base des prédictions est de refuser la mise en liberté sous caution ou la libération conditionnelle, mais si nous sortons du cadre prédictif, nous pourrions nous demander : « Quelle est la meilleure façon de réhabiliter cette personne au sein de la société et de diminuer les risques qu’elle ne commette un autre délit ? » Ce qui ouvre la possibilité d’un ensemble beaucoup plus large d’interventions.

Angwin : certains s’alarment en prétendant que ChatGPT conduit à “l’apocalypse,” pourrait supprimer des emplois et entraîner une dévalorisation des connaissances. Qu’en pensez-vous ?

Narayanan : Admettons que certaines des prédictions les plus folles concernant ChatGPT se réalisent et qu’il permette d’automatiser des secteurs entiers de l’emploi. Par analogie, pensez aux développements informatiques les plus importants de ces dernières décennies, comme l’internet et les smartphones. Ils ont remodelé des industries entières, mais nous avons appris à vivre avec. Certains emplois sont devenus plus efficaces. Certains emplois ont été automatisés, ce qui a permis aux gens de se recycler ou de changer de carrière. Il y a des effets douloureux de ces technologies, mais nous apprenons à les réguler.

Même pour quelque chose d’aussi impactant que l’internet, les moteurs de recherche ou les smartphones, on a pu trouver une adaptation, en maximisant les bénéfices et minimisant les risques, plutôt qu’une révolution. Je ne pense pas que les grands modèles de langage soient même à la hauteur. Il peut y avoir de soudains changements massifs, des avantages et des risques dans de nombreux secteurs industriels, mais je ne vois pas de scénario catastrophe dans lequel le ciel nous tomberait sur la tête.

Comme toujours, merci de votre attention.

À bientôt,
Julia Angwin
The Markup

On peut s’abonner ici à la lettre hebdomadaire (en anglais) du magazine The Markup, envoyée le samedi.




La dégooglisation du GRAP, partie 1 : La sortie de Google Drive

A l’été 2020, nous avons commencé à publier une série d’articles faisant le récit de démarches de transitions numériques éthiques réalisées au sein de plusieurs organisations. Nous avons mené les interviews de 3 structures (WebAssoc, l’Atelier du Chat Perché et la maison d’édition Pourpenser) et puis… ça s’est arrêté. Il y avait sûrement quelque chose de plus urgent à faire ensuite… ou peut-être que le second confinement fin 2020 nous a démotivé. Peu importe la raison en fait, l’important est qu’on s’y remette !

On a donc sauté sur l’occasion lorsque le GRAP (Groupement Régional Alimentaire de Proximité), une coopérative réunissant des activités de transformation et de distribution dans l’alimentation bio-locale, a publié le récit de sa dégooglisation. Nous reproduisons ici ce long texte en trois parties pour vous partager leur expérience.

 

De 2018 à cette fin 2022, nous avons travaillé à Grap à notre dégooglisation. Nous vous proposons ce long texte en trois parties pour vous partager notre expérience.

Son premier intérêt est de laisser une trace du travail fourni et d’en faire le bilan.
Le deuxième intérêt est de partager cette expérience à d’autres structures qui souhaiteraient se lancer dans l’aventure.

Nous partageons dans ce texte les processus mis en place, les différentes étapes de cette dégooglisation, les difficultés rencontrées et quelques conseils.

Pour toute question ou retour, vous pouvez contacter le pôle informatique de Grap : pole-informatique <arobase> grap.coop

Bonne lecture et longue vie aux outils numériques émancipateurs et Libres !  🚲

Au début de Grap en 2012…

Il y a 10 ans, Grap naissait en tant que SCIC – Société Coopérative d’Intérêt Collectif. En 2012 est écrite une 1ère version du préambule des statuts qui décrit l’intérêt collectif qui réunit les associé·e·s de la SCIC. Ce préambule présentait alors que Grap aller « Contribuer au développement d’activités économiques citoyennes et démocratiques, c’est-à-dire […] travaillant dans une logique de partage des savoirs, en phase avec la philosophie Creative Commons ».

Cette 1ère référence au monde du Libre est complétée et enrichie 5 ans plus tard à l’occasion d’une révision du préambule des statuts, en 2017. Désormais le préambule des statuts indique que Grap entend :

Contribuer au développement d’activités économiques citoyennes et démocratiques […] promouvant l’économie des biens communs, c’est à dire :

  • Travailler dans une logique de partage des savoirs, en phase avec la philosophie Creative Commons
  • Promouvoir, contribuer et utiliser des logiciels libres au sens de la Free Software Foundation ; minimiser l’utilisation de logiciels sous licences privatives
  • Promouvoir, contribuer et utiliser des solutions informatiques qui n’exploitent pas de façons commerciales les données des utilisateurs et qui respectent leurs vies privées

Notre démarche de dégooglisation s’inscrit donc dans la continuité des choix politiques portés par les associé·e·s de la coopérative depuis sa création. Par dégooglisation, nous entendons ici le remplacement des logiciels propriétaires – qu’ils soient détenus par les GAFAM ou non – par des logiciels Libres.

Dès le début, il est décidé d’internaliser une partie de l’informatique au sein de l’équipe qui rend les services aux activités de la coopérative. [À Grap, nous utilisons le terme d’activité pour désigner les entreprises associées à Grap et les activités économiques de la Coopérative d’Activités et d’Emploi]. La majorité du temps informatique sera dédié au développement du progiciel libre OpenERP (nommé désormais Odoo) pour gérer la première activité d’épicerie (3 P’tits Pois à Lyon) de la coopérative.

Par pragmatisme économique et choix stratégique, les autres outils de la coopérative ne sont pas choisis par le critère de logiciel Libre ou non. Ainsi, la coopérative va utiliser Google Drive, Google Mail, Google Agenda, et aussi d’autres logiciels spécifiques comme EBP pour la compta ou Cegid Quadra pour la paie.

2018-2020/ Sortir de Google Drive pour Nextcloud

Après le départ d’un des cofondateurs et d’un informaticien en 2014, le service informatique va fonctionner avec 1 seule personne jusqu’à fin 2017. Sylvain Le Gal va alors consolider le périmètre existant (gestion d’une eBoutique, développements spécifiques à l’alimentaire dans OpenERP, connexion avec des balances client·es et migration de OpenERP 7.0 à Odoo 8.0).

Fin 2017, l’embauche de Quentin Dupont permet de gagner en temps de travail disponible et d’agrandir le périmètre des services du pôle informatique.

🌻 L’été 2018 pour valider l’alternative à Google Drive

Le choix du logiciel remplaçant se fait très facilement : Nextcloud est LA solution Libre qui s’impose autant par sa prise en main relativement simple pour des utilisateur·ices de tout niveau, que par l’engouement de sa communauté et son administration alors maîtrisée par le pôle informatique.

Il faut quand même s’assurer que toutes les fonctionnalités utilisées actuellement trouvent leur équivalent. Grâce aux différentes applications existantes sur Nextcloud, les différents besoins se retrouvent bien couverts.

🌸 À l’automne 2018, on prend la décision de sortir de Google Drive

Un changement de logiciel peut être l’occasion de revoir ses pratiques. Nous en profitons pour revoir notre arborescence de fichiers et de dossiers. Nous créons alors :

  • Un compte Nextcloud par :
    • personne physique de l’équipe interne
    • personne physique des activités qui ont des mandats particuliers (administrateur·ice au CA par exemple)
    • activité de la coopérative (donc par « personne morale ») et non pas par personne physique de la coopérative pour différentes raisons :
        • de nombreuses activités partagent réellement leurs ordinateurs tout au long de la journée
        • aucun intérêt à ce que chaque personne ait son compte, cela rajouterait une dose énorme de suivi de création de compte, de support, etc.
        • ce choix vient avec une limite : l’accès aux documents personnels avec le pôle social n’est pas possible
  • Un « groupe » Nextcloud pour chaque groupe autonome
    • un groupe par pôle de l’équipe interne
    • un groupe par mandat : DG, CA
    • un groupe par activité de la coopérative – regroupant le compte de la personne morale + les comptes des personnes physiques de cette activité qui ont des mandats particuliers.
  • Des dossiers communs pour travailler collaborativement
    • entre pôles de l’équipe
    • entre membres de la coopérative
    • entre mandataires (DG ou CA)

structure des dossiers NC au GRAP
La structure de dossiers présentée en nov. 2018 et qui est en place depuis.

Avec Nextcloud, nous avons donc pu créer une architecture plutôt simple pour les utilisateur·ices mais permettant de répondre aux complexités du travail collaboratif entre des profils bien différents.

Grâce aux droits d’accès paramétrables finement, le Nextcloud permet ainsi d’offrir plus de transparence et de collaboration dans la coopérative, que ce soit par les dossiers partagés totalement ou, à l’inverse, les dossiers dont l’accès n’est possible qu’en lecture sans possibilité de modifier.

💮 2019 – 2020 : la dégooglisation de 150 personnes dans 50 activités

Google Drive n’est pas seulement utilisé par l’équipe interne. L’outil est partagé à l’ensemble de la coopérative. C’est à dire à une cinquantaine – à l’époque – d’activités indépendantes, allant de l’entrepreneuse seule à la petite équipe de 10 personnes.

Il faut donc embarquer tout le monde dans ce changement.

  • Politiquement/théoriquement pas de soucis. Les méfaits de Google sont connus de la majorité des gens et théoriquement, nous n’avons jamais eu de désaccords sur l’idée de sortir de Google Drive.
  • En pratique, Google Drive s’avère être plutôt lourd à l’utilisation, pas bien maîtrisé ni maîtrisable, surtout concernant la gestion des partages qui est un véritable enfer (« Qui est le fichu propriétaire de ce fichier dont le propriétaire originel est parti de la structure / n’a plus de compte Google ? »).

En allant sur Nextcloud, nous allions maîtriser – et donc être responsables – des données de la coopérative, nous allions retrouver de la souveraineté et de la compétence sur le sujet.

Au printemps 2019, nous changeons aussi d’outil de documentation. Pour sa simplicité d’utilisation et son ergonomie générale, nous choisissons le logiciel Libre BookstackApp. Depuis, notre librairie tourne toujours aussi bien et héberge notre documentation informatique mais aussi toute la documentation stable de la coopérative.

Depuis 2020, la documentation informatique est librement consultable ici : https://librairie.grap.coop/shelves/informatique

💩 Une première difficulté : l’export des données de Google

L’export fut en effet très compliqué, trop compliqué pour un logiciel conçu par l’une des entreprises les plus puissantes au monde. L’export des données d’un Google Drive (à l’époque en tout cas) est extrêmement long et très peu sécurisant : Google fournit l’export en archives coupées en plusieurs parties (du style « ARCHIVE-PART01 » « ARCHIVE-PART02 »), archives dont une partie… pouvait être manquante (ex : on a la partie 01, 02, 04, 05 mais pas la partie 03), nécessitant de refaire un export entier.

Nous avons donc passé de nombreuses heures à exporter les données, puis nous les avons sécurisées sur un disque dur externe, avant de les envoyer sur notre Nextcloud.

🚀 Et tu formes formes formes, c’est ta façon d’aimer

Pour réussir à dégoogliser la coopérative, pas de miracle, on a enchaîné la formation des activités une à une, en mutualisant des formations par territoire géographique.

Chaque formation durait environ 1h30. En 2019, nous avons passé environ 150 heures de travail à la formation, l’accompagnement et la documentation de cette étape de dégooglisation (+ les heures techniques, voir bilan financier à la fin de ce récit). L’ensemble de la documentation – qui est un travail continu – est consultable ici : https://librairie.grap.coop/books/nextcloud

En janvier 2020, soit plus d’un an après la décision de passer sur Nextcloud, la migration était officiellement finie ! 🎉

🙊 Une difficulté pas anticipée : les limitations d’Onlyoffice pour les commandes groupées

Tout allait bien dans la dégooglisation progressive de la coopérative. Au cours de l’année 2019, la moitié de la coopérative utilise désormais Nextcloud au lieu de Google Drive !

Un des avantages de la coopérative pour les activités est de pouvoir mutualiser de nombreux sujets. Un de ces sujets est l’approvisionnement en produits artisanaux en circuits courts grâce à une logistique interne – Coolivri. Cette logistique s’appuyait à l’époque sur un GROS fichier tableur en ligne sur Google Drive.

Le 2 août 2019, une première commande groupée d’oranges et d’agrumes est lancée sur le Nextcloud et toutes les prochaines commandes groupées vont débarquer sur le Nextcloud, géré par l’application Onlyoffice.

Et c’est vers cette période que l’on se rend compte que l’application disponible d’Onlyoffice a une limitation : pas plus de 20 personnes connectées simultanément sur l’ensemble des fichiers collaboratifs du nuage ! À l’époque nous devions avoir une soixantaine d’utilisateur·ices et une équipe interne qui l’utilise toute la journée : ce n’était pas tenable.

mème limitations OnlyOffice

Cette limitation n’est pas technique, mais bien un choix délibéré de l’entreprise développant le logiciel pour amener à payer une licence permettant d’accéder au logiciel sans limitation. Un modèle freemium en soi. Cette question du modèle économique et de ce qu’est un « vrai » logiciel libre est bien sûr compliqué, et amènera de nombreux débats dans les forums de discussion de Nextcloud.

Fin 2019, nous nous questionnons réellement sur le fait de payer cette licence (coût à l’époque : ~1500€ en une fois pour 100 utilisateur·ices simultanées).

Après avoir écumé les Internets, contacté toutes les structures amies qui auraient la même problématique, la solution vient finalement de la communauté elle-même qui est partagée sur le fait de contourner cette limitation qui constitue le modèle économique de l’entreprise développant Onlyoffice. Un développeur bénévole a réussi à reproduire le logiciel (légalement car le logiciel est Libre) en enlevant cette limitation !

Depuis, nos commandes groupées ont été rapatriées sur Odoo grâce à un gros développement interne, en faisant un outil beaucoup plus résilient et solide. Et nous continuons d’utiliser Onlyoffice dans des versions communautaires trouvées par ci par là.

Google en 2022 s’inquiète 😉

To be continued…

Dans la seconde partie, nous continuerons notre récit de dégooglisation, nous permettant de nous débarrasser de Google Agenda puis du mastodonte.. Gmail !

Si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !




L’aventure de la modération – épisode 5 (et dernier ?)

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le cinquième. Le dernier, pour l’instant.

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération
– Chapitre 4 : Bilan

 

Pour conclure cette série de textes sur la modération, et maintenant que j’ai grandement détaillé comment il est possible, sur Mastodon, d’avoir une modération qui fait le taf, je voulais revenir sur pourquoi, à mon avis, il est impossible pour les grandes entreprises capitalistes de faire correctement de la modération (et pourquoi ça ne sert à rien de leur demander de faire mieux !).

 

C’est le cœur de cette série car je suis très frustrée de voir systématiquement une bonne analyse faite sur les problèmes des outils, qui se casse la figure au moment d’évoquer les solutions. Alors c’est parti !

 

N.B. : je fais cette analyse sans considérer qui est le PDG au moment où je publie car je pense que ça ne change pas grand chose sur le fond, au pire le nouveau sera plus transparent sur sa (non-)politique de modération.

 

Twitter ne fera pas mieux car…

Twitter ne veut pas dépenser d’argent pour construire des équipes de modération

 

Vous le savez sans doute, c’est passé dans de nombreux articles comme celui de Numérama : Twitter assume n’avoir quasiment pas de modérateurs humains

Twitter emploie 1 867 modérateurs dans le monde.

 

Pour 400 millions d’utilisateurices, ça fait 1 modérateurice pour 200 000 comptes. Donc évidemment la modération ne peut pas être suffisante et encore, on ne sait pas comment les effectifs de modération sont répartis selon les langues. Il est évident qu’il est extrêmement difficile de modérer, alors modérer dans une langue qu’on ne maitrise pas c’est mission impossible !

 

Je rajoute rapidement qu’en plus, contrairement à ce que j’évoquais dans mes articles précédents sur « comment prendre soin » et construire un collectif de modération, il n’y a absolument aucune notion de soin et de collectif lorsque l’on est modérateurice chez Twitter. Il y a au contraire des conditions de travail délétères qui amplifient le problème : interdiction de parler à ses collègues, de raconter à l’extérieur ce à quoi on a été confronté, pression temporelle intense donc pas possible de récupérer après un moment violent.

 

Bref, Twitter veut économiser de l’argent, et le fait notamment sur le dos de ses modérateurices qui sont envoyées au massacre psychologique de la modération, et donc au détriment de ses utilisateurices les plus fragiles.

 

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Twitter préfère les robots

Face aux critiques qui lui sont faites, Twitter répond qu’il compte sur l’automatisation des robots pour faire ce travail pénible.

Je pense que cette posture ne tient pas pour plusieurs raisons :
1. C’est technosolutionniste que de penser que des robots peuvent répondre à un problème social (et donc à mon avis voué à l’échec).

2. Les robots sont alimentés par ce que nous leur donnons, et donc remplis de biais qu’ils vont répercuter dans leur politique de modération. Dans un collectif de modérateurices, ces biais sont atténués par les débats et discussions. Je ne crois pas que les robots soient très portés sur la discussion de ce qui est juste ou non.

3. Le contexte est primordial en modération, et un robot ne peut pas être assez « intelligent » pour comprendre ce contexte. Pour exactement le même contenu, selon d’où parle la personne, la réponse de modération ne sera pas la même. Vous imaginez bien qu’entre une femme qui dit subir du sexisme ou un homme, on n’est pas sur la même action à réaliser, l’une subit une oppression systémique tandis que l’autre récupère maladroitement ou stratégiquement un mot en le détournant.

 

Les robots ne sont donc pas une solution sur laquelle on peut compter, mais sont une bonne façon de détourner la discussion du sujet « Pourquoi n’avez-vous pas plus de modérateurices ? ». Il vaut mieux répondre « Le boulot est trop ingrat, on préfère que se soit des robots, on les améliore chaque jour » plutôt que « on ne veut pas mettre d’argent à payer des modérateurices et puis quoi encore ? ». (Quoique en ce moment, il y a une bonne clarification des postes considérés comme utiles chez Twitter, et la modération n’en fait pas partie !).

 

On pourra me dire : «oui mais un robot, c’est fiable car ça prend toujours les mêmes décisions !»

Et c’est peut-être vrai, mais pourquoi avons-nous besoin d’une modération qui ne bouge pas dans le temps ? Comment s’améliorer, comment faire évoluer nos pratiques si toute la connaissance est refilée aux robots ?

 

Nous avons besoin de remettre de l’humain dans nos médias sociaux, et déléguer aux robots ne fait que contourner le problème.

 

Twitter a besoin que les gens soient blessés

 

Enfin, de par le fonctionnement même de Twitter, le réseau social a besoin pour son modèle économique de gens qui souffrent, qui sont malheureux, blessés, en colère, pour gagner plus d’argent.

 

C’est le principe de l’économie de l’attention : plus vous restez sur un média social, plus vous partagez vos données, regardez des pubs, interagissez et faites rester les autres.

 

Et pour vous faire rester, rien de tel que de vous confronter à ce qui vous énerve, ce qui vous fait vous sentir mal, ce qui vous fait réagir.

 

Pour cela, les comptes d’extrême-droite sont de l’or en barre : ils passent leur temps à dire des saloperies, et à un moment l’une d’elle va forcément vous toucher plus particulièrement qu’une autre, soit parce que vous êtes concerné·e, soit parce que quelqu’un de votre entourage l’est.

 

Ensuite on cite le tweet concerné en disant qu’il faut surtout pas écouter ce genre de personne, on déconstruit l’argumentaire en un fil de huit tweets, tout cela augmente la visibilité du contenu initial et donc d’idées d’extrême-droite, personne n’a changé d’avis à la fin mais vous vous sentez sans doute encore moins bien qu’au début, ou plus énervé·e… et chouette pour Twitter, parce qu’être en colère ou triste ça rend davantage sensible à la publicité.

 

Vous l’aurez compris, il y a donc par nature un problème de fond : si Twitter vire tous les comptes d’extrême-droite, son chiffre d’affaire va chuter. Alors il peut promettre la main sur le cœur qu’il compte le faire, les yeux dans les yeux, et vous avez le droit de le croire.

 

Pour moi les résultats sont là, rien ne se passe, et il n’y a pas de raison que ça s’arrange avec le temps (au contraire !).

 

Oui mais… et la violence à laquelle sont soumis les modérateurices dans tout ça ?

 

Les entreprises capitalistes du numérique entretiennent savamment la croyance que puisqu’il y a de la violence dans le monde, il n’y a rien à faire, quelqu’un doit bien se farcir le taf ingrat de subir cette violence transposée sur les réseaux sociaux, et ces personnes, ce sont les modérateurices.

 

Je ne suis pas d’accord.

 

Je pense que nous pouvons collectivement améliorer de beaucoup la situation en priorisant des technologies qui prennent soin des humains, et qu’il est immoral de perpétuellement déléguer le travail de soin (des enfants, de la maison, des espaces en ligne) à des personnes qui sont toujours plus mal payées, plus précaires, plus minorées, à l’autre bout du monde…

 

Nous pouvons avoir des réseaux qui fonctionnent correctement, mes articles sur Mastodon en font l’exemple.

 

Est-ce que c’est parfait ? Non, mais au moins, la modération est gérée à petite échelle, sans la déléguer à des personnes inconnues qu’on rémunère de façon honteuse pour faire le « sale travail » en leur détruisant la santé.

 

Et si à terme Mastodon grossit tellement qu’il sera soumis aux contenus les plus atroces, et que cela rendra la modération impossible ou complètement délétère pour les modérateurices, eh bien il sera temps de l’améliorer ou de tout fermer. Parce que nous pouvons aussi faire le choix de ne pas utiliser un outil qui abime certain·es d’entre nous plutôt que de fermer les yeux sur cette violence.

 

Peut-être que le fonctionnement fondamental des réseaux sociaux a finalement des effets délétères intrinsèques, mais pourquoi se limiter à ça ? Pourquoi ne pas discuter collectivement de comment faire mieux ?

 

Et sur un autre registre, il est aussi possible de mettre de l’énergie en dehors de la technologie, sur un retour à plus de démocratie, plus de débat apaisé. Parce que peut-être que si chacun·e retrouve une confiance sur le fait que son avis et ses besoins seront entendus, il sera possible de retrouver collectivement plus de sérénité, et cela se ressentira sûrement dans nos interactions numériques.

 

Un autre monde (numérique) est possible, il nous reste à le construire, pour contribuer à une société empreinte de justice sociale où le numérique permet aux humain·es de s’émanciper, à contre-courant des imaginaires du capitalisme (de surveillance).

 

« Mastodon, c’est chouette » sur Grise Bouille, par @gee@framapiaf.org
https://grisebouille.net/mastodon-cest-chouette




L’aventure de la modération – épisode 4

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le quatrième.

Alors maintenant que je vous ai dit tout ça, faisons un petit bilan des avantages et surtout des limites de ce système !

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Les avantages

Je vais être courte parce que mon point n’est pas ici d’encenser Mastodon, donc je ne creuserai pas trop les avantages. Cependant je ne peux pas m’empêcher de remettre en avant deux points majeurs :

Indéniablement, on bloque très vite les fachos. C’est quand même, à mon avis, le grand intérêt, qui n’est pas assez connu au-delà de Mastodon. De ce fait nous avons une exigence collective très faible par rapport à la modération : quand Twitter annonce qu’il ne peut pas faire mieux, on le croit sur parole alors qu’une alternative sans moyens d’envergure y arrive… Journalistes spécialisés si vous lisez ce message !

 

Ensuite, le fonctionnement est beaucoup plus démocratique car : ce sont des humains que vous choisissez qui font la modération. Et ça, ça change beaucoup de choses. Déjà parce qu’on est dans un fonctionnement beaucoup plus… artisanal de la modération, donc potentiellement avec plus de proximité, dans l’idéal on peut discuter / appeler à l’aide ses modérateurices… et même selon les endroits, proposer de participer à la modération et ça, ça compte pour se rendre compte du boulot que c’est, et participer aux décisions importantes !

 

Les limites

 

Comme rien n’est parfait, et que nous sommes sur une alternative qui évolue tout le temps, quelques points qui restent des limites malgré le modèle anti-capitaliste de Mastodon.

 

Temps de traitement d’un signalement

 

Il y a un difficile équilibre entre le temps de traitement d’un signalement et le temps d’entendre plusieurs avis du collectif de modération. Je pense qu’il est sain de prendre le temps, mais il y a des situations où l’un·e des modérateurices peut considérer qu’il y a « urgence » et dans ce cas, attendre 48h c’est beaucoup (pour protéger une personne par exemple). C’est un point que nous n’avons pas encore creusé à Framasoft (comment gérer le dilemme rapidité d’action vs. disponibilité du collectif), mais que je me note de rajouter en discussion pour nos prochaines retrouvailles !

 

Encore une fois je parle là des cas difficiles à départager. Si il s’agit de pédopornographie, les salariés de Framasoft sont déjà habitués à devoir réagir rapidement pour supprimer le contenu, donc je ne traite pas ce sujet ici car il n’est pas spécifique.

 

Beaucoup d’utilisateurices, beaucoup de problèmes

Framasoft est une association très connue, et nos utilisateurices nous choisissent souvent car iels ont confiance en nous (merci !).

Mais cela entraine une responsabilité compliquée à gérer : plus de monde chez nous, ça nous fait plus de travail, de modération notamment.

 

Aussi, dans un cadre plus large qui était celui de la déframasoftisation d’Internet, nous avons fermé les inscriptions, ce qui nous a permis d’alléger la charge de notre coté.

 

Et comme tous les Mastodon sont interconnectés, il est possible d’aller s’inscrire ailleurs pour suivre ce qui se passe chez nous, donc c’est un fonctionnement technique qui nous permet de mieux vivre le travail de modération… youpi !

 

Éviter la « spécialisation » des modérateurices

 

Lors de la mise en place d’une équipe de modération à Framasoft, il a fallu faire un petit temps de formation-découverte à l’interface de modération de Mastodon.

 

Or on a vu apparaitre assez rapidement une « spécialisation » entre celleux qui « savaient » utiliser l’interface, et celleux qui n’osaient pas car ne « savaient pas » l’utiliser.

 

Pourtant il y a beaucoup de valeur à ce que la connaissance autour des outils circule auprès de tou·tes celleux que cela peut intéresser :
— Pour qu’il y ait de plus en plus de modérateurices, ce qui répartit le temps dédié à la modération,
— Pour que la discussion soit ouverte à des personnes qui n’ont pas la tête plongée dans la modération, ça permet d’entendre d’autres paroles, c’est appréciable.

 

Pour résoudre ce problème, nous avons organisé des visios de modération !

C’est une pratique que nous avons dans ma coopérative : faire des tâches chiantes, c’est quand même bien plus sympa ensemble !

Alors quand l’un de nous disait « bon, là, il y a quand même beaucoup de signalements qui s’accumulent » je répondais parfois « ça vous dit on fait une visio pour les traiter ensemble ?! »

 

Nous n’avions pas besoin d’être beaucoup, à 2, 3 ou 4 c’était déjà bien plus sympa, même les contenus agressifs sont plus faciles à traiter quand les copains sont là pour faire des blagues ou râler avec toi ! Nous lancions un partage d’écran, idéalement d’une personne pas hyper à l’aise pour l’accompagner, et nous traitions les signalements.

 

Autre effet bénéfique : la boucle de « je demande leur avis aux copaines, j’attends, je traite le signalement » est raccourcie car nous pouvons collectivement débattre en direct du problème. C’est vraiment une façon très sympa de faire de la modération !

 

Les « On va voir » et autres « On peut pas savoir »

 

Enfin, si tout cela est possible actuellement, une part de moi me demande si ce n’est pas dû au fait que Mastodon passe encore « sous les radars ».

C’est un sentiment que j’ai tendance à minimiser vu que cela ne nous a pas empêché d’avoir des hordes de comptes d’extrêmes droites qui se ramenaient. Donc une part de moi pense que le réseau (qui a déjà six ans donc on est loin du petit truc tout nouveau qui a six mois) a un fonctionnement déjà résilient.

Et une autre partie de moi sait qu’elle n’est pas voyante, donc on verra bien dans le futur !

 

Par contre je voudrais insister sur le fait qu’on ne peut pas savoir. Tous les articles qui vous expliqueront que Mastodon ne peut pas fonctionner parce que « intégrer un argument d’autorité sur le fait que ce n’est pas assez gros » ne sont pas mieux au courant que les utilisateurices et administrateurices depuis des années. Et je n’ai pour l’instant vu aucun argument pertinent qui aurait tendance à montrer que le réseau et ses modérateurices ne peut pas supporter une taille critique.

 

Comme d’hab, le secret : il faut prendre soin

 

Cette conclusion ne va étonner personne : La solution pour une bonne modération, c’est de prendre soin.

 

Prendre soin des utilisateurices en n’encourageant pas les discours haineux (techniquement et socialement), en ne les propageant pas (techniquement et socialement).

 

Prendre soin des structures qui proposent des petits bouts de réseaux en leur évitant d’avoir trop de pouvoir et donc trop de responsabilités sur les épaules (et trop de coûts).

 

Prendre soin des modérateurices en les soutenant via un collectif aimant et disponible pour leur faire des chocolats chauds et des câlins.

Cher·e modérateurice qui me lis, tu fais un boulot pas facile, et grâce à toi le réseau est plus beau chaque jour. Merci pour ton travail, j’espère que tu as un collectif qui te soutiens, et que se soit le cas ou non, pense à avoir sous la main le numéro d’un·e psychologue, au cas où un jour tu tombes sur quelque chose de vraiment difficile pour toi/vous.

 

Cœur sur vous <3

 

Et pour finir ?

Je n’ai pas pu m’empêcher de conclure avec un billet dédié au contraste entre mon expérience de la modération et ce qui se passe sur Twitter. La semaine prochaine paraîtra donc un billet spécialement dédié à l’oiseau bleu : et Twitter alors ?




L’aventure de la modération – épisode 3

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le troisième.

Les cas d’étude c’est bien sympa, mais cela ne donne qu’une vision partielle du fonctionnement. Aussi je vais détailler ma montée en compétence sur la modération, et celle du collectif parce que ça fait partie des solutions à mettre en place pour que se soit un boulot le moins délétère possible !

 

Les outils accessibles via Mastodon

Mastodon permet, pour les utilisateurices inscrites chez nous de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— supprimer un message
— limiter la visibilité du compte à ses abonnés seulement
— suspendre le compte sur un temps restreint
— supprimer le compte définitivement
— contacter l’utilisateurice par message privé
— contacter l’utilisateurice par mail
— bloquer un Mastodon entier (!!) (aussi appelé instance).

 

Pour les utilisateurices qui ne sont pas chez nous, il est seulement possible de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— limiter la visibilité du compte à ses abonnés
— bloquer le compte
— contacter l’utilisateurice par message privé.

 

Lorsqu’une personne effectue un signalement, nous recevons une notification par mail si :
— la personne faisant le signalement se trouve chez nous
— la personne signalée est chez nous ET que la personne ayant fait le signalement a demandé explicitement à ce que nous le recevions.

 

Les signalements les plus importants à gérer étant évidemment ceux concernant des personnes se trouvant sur notre (instance de) Mastodon et ayant un comportement problématique. Actuellement, la majorité des signalements pour lesquels nous sommes notifiés sont faits par une personne inscrite chez nous à propos de contenus qui se trouvent ailleurs, sans doute pour prévenir les modérateurices de l’autre Mastodon qu’il y a quelque chose à regarder de leur coté.

 

Au fur et à mesure du temps, j’ai l’impression que si les signalements ne sont pas liés à du contenu chez nous, et ne sont pas explicitement problématiques, on peut laisser la responsabilité d’agir aux modérateurices des autres instances.

 

L’important étant de bien s’occuper de ce qui se trouve chez nous. 🙂

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

Comment ça se passe ?

Donc une fois la notification par mail reçue, on se connecte à un compte avec les droits de modération (pour certains leur compte personnel, pour d’autres le compte de modération que nous avons créé à la sortie de la charte pour avoir un compte dédié à ce sujet). Nous avons accès à une interface récapitulant le compte concerné, les contenus signalés, le message du signalement expliquant pourquoi il a été effectué (extrêmement important car sinon on perd énormément de temps à comprendre ce qui est reproché) et quelques autres indicateurs (notamment le nombre de signalements déjà effectués, pratique pour repérer les récidivistes).

 

Démarre ensuite dans la grande majorité des cas un travail d’enquête afin de comprendre le contexte. C’est une action extrêmement chronophage mais qui nous permet de savoir si la personne a une façon de se comporter correcte, un peu pénible ou carrément problématique, ce qui va influencer le niveau de sévérité de l’action de modération.

 

Si nous avons de la chance, il suffit de parcourir une dizaine de contenus, mais parfois la personne a partagé des vidéos, et il est nécessaire de regarder l’entièreté de la vidéo pour se rendre compte de son caractère problématique… ou non. C’est comme cela que je me suis retrouvée à regarder vingt minutes d’une vidéo célébrant le Brexit où se trouvaient Asselineau, Nicolas Dupont-Aignan, Florian Philippot. Quel excellent moment.

 

C’est ce travail de contextualisation qui explique pourquoi il est extrêmement important, lorsque vous réalisez un signalement, de mettre le plus de détails possibles : quels sont les contenus incriminés ? Pourquoi pensez-vous que cela mérite une action de modération ? Trop souvent nous avons un signalement composé d’un seul pouet, hors contexte, qui nous oblige à nous y attarder bien plus que si on nous avait fourni des explications détaillées. (Merci pour nous !)

 

Une fois cette contextualisation réalisée, il est temps de se décider… est-ce qu’il y a quelque chose à faire ? Est-ce qu’on supprime les contenus incriminés ? Est-ce qu’on contacte la personne ?

 

À Framasoft nous avons un tchat dédié à la modération, dans lequel nous partageons notre analyse du contexte, le signalement, et nous proposons l’action ou les actions qui nous semblent les plus appropriées. L’idée est de pré-mâcher le travail aux copaines tout en n’ayant pas à porter seul le poids de la décision de la « bonne » action de modération à réaliser.

 

Donc une fois que j’ai une idée de ce qui me semblerait « le mieux » à faire (ou pas), je demande leur avis aux copaines sur ce tchat. Il y a ensuite un petit temps d’attente nécessaire, pas problématique dans la plupart des cas mais très stressant quand la situation revêt un caractère « d’urgence », et que quelques heures comptent (par exemple si quelqu’un commence à se prendre une vague de harcèlement, plus vite on peut la protéger mieux c’est).

 

Si on n’est pas d’accord, on discute, jusqu’à tomber d’accord ou ne pas tomber d’accord et utiliser la règle du « c’est qui qui fait qui décide ». Donc si on se dit « cette personne il faudrait la contacter pour lui expliquer » mais que personne n’a l’énergie de rédiger quelque chose… ben on fait différemment en choisissant une action qui tient compte du niveau d’énergie des modérateurices.

 

Et enfin, on réalise l’action de modération « finale » qui, si elle est technique, est hyper rapide (nonobstant un petit message pour prévenir si on a envie d’en faire un), mais qui si elle est dans la « communication » n’est que le début du chemin !

 

J’espère que cela vous permet de davantage mesurer l’effort invisible qu’est la modération : Recevoir la notification, Identifier le niveau d’urgence, Contextualiser, Synthétiser, Trouver une décision juste, la Soumettre au collectif, Attendre les retours, Discuter, Agir, peut-être Répondre… 9 à 10 étapes qui ne sont vues de personne, excepté si les contenus ou le compte sont purement et simplement supprimés. Il est donc très facile de dire que « rien » n’est fait alors que ça s’active en coulisses.

 

De plus, dans un monde où tout et n’importe quoi est « urgent » autant vous dire que ça n’est pas facile de prendre le temps de décider sereinement d’une action la plus juste possible alors que précisément, cela demande du temps de ne pas réagir sur le coup de l’émotion !

 

L’anonymat des modérateurices

 

Lorsque j’ai débuté la modération, j’avais dans l’idée qu’il était important que les modérateurices soient clairement identifié·es pour qu’il soit plus simple de savoir d’où iels parlent. Non seulement pour savoir si iels sont directement concerné·es par certaines oppressions systémiques, mais aussi pour pouvoir avoir un œil sur leur niveau de déconstruction (ce n’est pas parce qu’on est une meuf et donc qu’on subit le sexisme que cela nous donne un badge « a déconstruit le patriarcat », loin de là).

 

J’en suis complètement revenue, ou plutôt j’ai bougé sur ma position : ce ne sont pas les individus qu’il faut connaitre, mais la position d’un collectif, et savoir si on a envie de faire confiance à ce collectif… ou non !

 

Pourquoi ce changement ? Déjà parce que lors de la vague de harcèlement que nous avons subie à la publication de la charte, la violence était très intense alors que je n’étais pas directement citée : c’était le compte de l’association (@Framasoft@framapiaf.org) qui l’était, et je ne voyais que ce qui tombait dans mon fil ou ce que j’allais voir de moi-même (enfin en étant sous le coup de la sidération, moment où l’on a pas toujours les bonnes pratiques : maintenant je ferme l’ordinateur pour m’éloigner du flot).

 

Si j’étais frustrée de ne pas pouvoir mettre de visage « humain » sur les personnes qui avaient écrit cette charte, j’ai surtout été très protégée par mon anonymat du moment. Et j’ai pu choisir, en mes termes et dans un timing que j’ai choisi, de partager mon ressenti sur la situation (avec l’article intitulé Dramasoft du nom du hashtag utilisé pour l’occasion).

 

Et je me souviens que je savais très clairement que je prenais un grand risque en communiquant sur ma participation à cette charte (et j’ai fait attention à ne pas parler des actions de modération en tant que telle dans un espoir de limiter l’impact). Le fait d’en contrôler la totalité de la publication, quand, sur quel support, auprès de qui, quand je me suis sentie prête, m’a énormément protégée.

 

Je reviens d’ailleurs sur une partie de ce que j’ai énoncé au-dessus, l’importance de

savoir si iels [les modérateurices] sont directement concerné·es par certaines oppressions systémiques

 

Je pense à présent qu’il est très problématique de penser pouvoir regarder un·e individu pour se permettre de juger de si iel ferait un·e bon·ne modérateurice : ce sont les actions et la direction dans laquelle se dirige le collectif qui compte. Nous ne pouvons pas déterminer, de par quelques pouets ou contenus partagés, si une personne est « suffisamment » déconstruite ou non.

 

Pire, cela nous encourage à faire des raccourcis, qui peuvent être d’une violence inouïe. Aussi, il nous a par exemple été reproché de concevoir une charte pour des enjeux de modération dont nous n’avions pas conscience, notamment parce que nous n’avions pas de personnes concerné·es par les oppressions systémiques dans l’équipe (qui seraient composés de mecs cis, het, blancs…).

Déjà c’est faux, car il y a des femmes qui subissent le sexisme qui en font partie (dont moi par exemple !) mais surtout parce qu’il n’est pas possible de savoir quel est le contexte et l’identité de chacun·e des membres, et notamment si certain·es seraient par exemple dans le placard, cachant soigneusement leur identité ou orientation sexuelle.

Rendez-vous compte de la violence, pour quelqu’un qui n’a pas fait son ou ses coming-out, de recevoir de la part d’adelphes qui sont dans le même groupe oppressé qu’elle un message sous entendant qu’elles ne sont pas légitimes puisqu’elles ne sont pas out. La violence est infinie, et je crois que c’est ce qui m’a mise le plus en colère dans cette histoire, car je ne pouvais pas vérifier si des membres étaient touché·es par ces accusations (puisque n’ayant pas fait leur coming-out… vous m’avez comprise).

 

Aussi, à nouveau, je pense que la solution repose sur le collectif, pour pouvoir à la fois s’adresser à quelqu’un tout en protégeant les individus.

À Framasoft, nous avons publié cette charte et ouvert un compte modération derrière lequel chaque membre peut lire les messages, et nous agissons pour des personnes qui nous font confiance. Plus récemment encore, nous avons re-partagé notre vision du monde dans notre manifeste, sans compter les nombreuses conférences et articles de blog qui expliquent comment nous nous positionnons. Si cela ne suffit pas aux utilisateurices, ils peuvent nous bloquer ou aller ailleurs, sans animosité de notre part : nous faisons avec nos petits moyens.

 

Le temps passé

 

Une question qui m’a été souvent posée c’est : Combien de temps vous y passez, à faire de la modération ?

 

Alors déjà il y a une grosse différence de temps passé entre le moment de mise en place de la charte de modération, et maintenant.

 

Lors de la mise en place de la charte et environ un an ensuite, nous étions sur quelques heures par semaine. Actuellement, c’est plutôt quelques heures par mois, et pour des cas moins complexes à gérer (même si on n’est pas à l’abri d’une vague de harcèlement !). Et c’est à mettre au regard du nombre : 1600 utilisateurs actifs chez nous, 11 000 inscrit·es (donc beaucoup de comptes en veille) et 6 millions d’utilisateurs au total sur tout le réseau.

 

Cette immense différence s’expliquer par deux raisons :
– Nous avons viré tous les relous.
– Nous avons fermé les inscriptions, et donc il n’y a plus de nouveaux.

 

Les utilisateurices qui restent sur framapiaf sont celleux qui ne nous demandent pas trop de boulot, et donc on s’en sort bien !

 

Mais je pense que même sur une instance dont les inscriptions restent ouvertes, on doit gagner en tranquillité grâce aux blocages d’instances déjà effectués et à la montée en compétence de l’équipe de modération (si l’équilibre est entretenu pour que les modérateurices restent, ça veut dire que le collectif en prend suffisamment soin !).

 

Note : Si les chiffres d’Olivier Tesquet sont bons (je n’ai pas vérifié), il y a en fait sur Mastodon une bien meilleure façon de modérer que sur Twitter parce que les modérateurices seraient juste… plus nombreuxses ?

 

Mastodon compte aujourd’hui 3615 instances, c’est à dire 3615 politiques de modération potentiellement différentes.
Au passage, ramené au nombre d’utilisateurs actifs, ça fait au moins un modérateur pour 250 mastonautes. Sur Twitter, c’est un pour… 200 000.

Et après ?

C’est l’heure de faire un petit bilan de cette triplette d’articles ! Ce sera dans le prochain épisode !




Collectivise the Internet : Three years to Ruffle the Feathers of Surveillance Capitalism

If the major issue in the digital world is systemic (a system called Surveillance Capitalism), then the answer cannot be limited to  » individual degoogleizing initiatives ». Our new roadmap Collectivise the Internet / Convivialise the Internet 🦆🦆  is all out on providing digital tools for non-profit organizations and collectives that work for the common good and the good of the Commons.

Let us tell you this story…

This article was published in French in October 2022 as part of the launch of Framasoft’s new roadmap Collectivise the Internet / Convivialise the Internet.

Simple banquet, in a shared garden, where free-software mascot animals are being served by Collectivise, convivialise ducks - Illustration by David Revoy - Licence: CC-By 4.0
Collectivise, convivialise – Illustration by David Revoy – License: CC-By 4.0

Emancipating Ourselves from Googles’ Industrial Animal Farmland

At Framasoft, we learn by doing. With every new campaign, with every new three-year roadmap, we try to apply lessons from the past. And every time, we discover more about our own misconceptions, our mistakes and ways forward to fix them.

During the Degoogleize The Internet campaign (2014-2017), we have learned that, although our small association could not degoogleize the whole planet, there is still a great deal of people who show interest in web-based tools that respect their values and integrity. Providing Free and open-source services to a as many people as possible ensures a large-scale deployment, even if that means risking focusing the demand and expectations on us. During this time period, we also initiated the alternative hosting collective CHATONS (an acronym that also means « kitties », in French), so that other hosts could join us in this adventure.

Then, we started the Contributopia roadmap (2017-2020), in which we contributed to many collective, popular and federated project, therereby meeting like-minded contributors, with whom we share the common values of sharing, fairness, caring, and emancipation, free and open-source software (FOSS) values that attracted us. We’ve come to realize, walking down this path, gathering and relating, that digital choices are societal choices, and that the choices made by FANGs are the pillars of a system: surveillance capitalism.

Illustration Quit planet GAFAM NATU BATX , CC BY David Revoy
« Quit planet GAFAM NATU BATX » Illustration by David Revoy – License: CC-By 4.0

Entire books are merely attempting to define what surveillance capitalism is, so what we are sharing here is just a rough summary of what it actually is. Surveillance capitalism is a system that transforms collective behaviours into data sets by prioritizing profit and power above all. The aim is to sell prediction and manipulation of our future behaviours, generally as commercial, cultural or electoral propaganda. In order to do so, some mega corporations try to establish monopolies on digital tools that maximize the acquisition and monopoly on our attention.

Simply put, surveillance capitalism creates industrial data farms, where we are the cattle. On the one hand, we are force-fed with attention mush (enriched with ads), and, on the other, part of our lives and our social behaviours are snatched from us to be resold to prosperous buyers at premium price.

That is why, at Framasoft, we have developped tools designed away from the values pushed by this system. Among the solutions we developed are PeerTube, a video platform software, and Mobilizon, a group and events management system. However, these tools require an entire group of people managing, maintaining, drafting and ensuring its editorial policy, and moderating: many small organizations do not have the human ressources to handle this in-house.

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Requiring digital tools that do not give goose bumps

From 2019 to 2022, we also ran the Déframasoftisons Internet action plan. We closed several projects which were underused or available through other trusted « CHATONS » hosts. This allowed us to save some energy for future projects, to reinforce our will to take care of our organization by avoiding unreasonable growth or restructuring that would disrupt our collective and the way it operates – which has made us pretty effective so far! – but especially to promote the decentralization of ethical digital tools.

Between 2020 and 2022, right in the middle of a gobal pandemic that confirmed our general dependency on online services, we intensified our efforts in maintaining our actions. Incidentally, we revised our plans for « Let’s deframasoftize » and chose to maintain some of the tools we intended to restrain or close: Framalistes, Framagit, Framateam, Framacalc…. We made that choice because we could see little to no other alternatives, and we did not want to let so many people down.

During this period of forced isolation, a pressing need began to be voiced more and more:

I am willing to ‘degoogle-ize’ myself, but I need someone to assist me, who can be here, in person to help me throughout this transition.

a pastry chef kitten presenting a cake-cloud prepared on demand, while in the background other kittens cook another cake-cloud in the middle of their cat-scratching tree village
Emancip’Asso – Illustration by David Revoy – License: CC-By 4.0

We have been hearing this need for this kind of human, tangible support for a while, and this is not unexpected. One of the mechanisms of capitalism is to individualize (« the customer is always right ») so as to better isolate and place the responsibility on each of us. For example, the information that we name « personal data » is neither personal nor data: it is more accurately the digital harvesting of our lives linked to those of others. Those are our social behaviours.

Conversely, if so many organizations, federations, etc. are so efficient in their task for the common good (whether they help us discover knitting or fighti climate inaction), it is precisely because they rest on the enjoyment of being and doing together, on the joy of meeting and exchanging, on the human warmth we find in the collective.

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Ducking out the slump thanks to conviviality

The future Big Tech is designing for us is one where humans are being:
* isolated – so that connections between humans rely solely upon their tools
* exploited – so that more and more tools are being created for us to consume
* singled out – so that no collective action is put in place that challenges their methods
* dependent – on their system of absolute monopoly
* greedy – so our lack of money can be weaponized against us
* competing – to pit us against each other and justify the rise of their elite class

This future that surveillance capitalism is designing for us as we speak, is neither engaging nor sustainable.. It treats both people and the Earth as a liability and will lead us straight to destruction.

On the other hand, trying to step out of our comfortable FOSS-enthusiasts’ bubble to try and reach out to other communities that are changing the world, has proved to be not as desorienting as we might have thought. We found that oftentime we shared the same utopias and the same definition of society: one based on contributing.

Drawing of five isles in a circle, each with buildings from different cultures. They are communicating together using waves and echoes.
ECHO Network – Illustration by David Revoy – License: CC-By 4.0

These « Contributopians » share the same dream as us: a future where humans are proud, autonomous, emancipated, knowledgeable, sharing and helpful to each other… a future where digital tools are under control, transparent, user-friendly and enhance the emancipation of human beings.

Thus, let’s summarize the lessons learned from our previous endeavours:

  • We did not yet have tools that fit the needs of the small organizations and associations that do so much with so little, but most of all with a lot of good will.
  • We are aware of the risk of remaining isolated, singled out in our « small, individual ‘degoogleization’ initiatives » against a whole system that can only be faced effectively through collective action.
  • We can see how crucial it is to put humans back at the center, the need for human presence and kindness when assisting others throughout their transition towards ethical digital practises.
  •  We have been able to confirm that a good number of associations and organizations from civil society which are working for the commons share with us these common values.

These patrons/champions of a « society of contribution » work hard to make our common dreams a reality.

 Long story short: it’s high time we degooglized the Contributopians!

(… those who wish to be, of course. We have never forced anyone to do anything, and we won’t start now!)

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Finding warmth with the jolly fellows

The four long-term actions we introduced in the article « Convivialise the Internet » 🦆(Framaspace, Émancip’Asso, ECHO Network, Peer.tube) all serve the same purpose: to equip organizations with online tools that fit their values.

These four projects rely on the strength of the collective while also taking into account the known constraints and limits that associations face. Kindness alone cannot magically and miraculously provide people with knowledge, time and means to train to use Nextcloud, PeerTube and other ethical tools.

 

Sepia, PeerTube cuttlefish mascot, is by the sea shore. She invites us on the pier where many sailboats berthed. Movies are played on the sails.
Peer.Tube – Illustration by David Revoy – License: CC-By 4.0

Similarly, the 39 members that compose Framasoft (10 of whom are employees) cannot spawn everywhere to personally train each and every new organization that wants to use, let’s say Framaspace, especially as that number could rise – with the help of your generous donations – up to thousands of organizations within 3 years!

That is why all of these projects are both about building a sense of community through shared spaces and some time allocated to community-building activities and sharing practices, challenges, etc., and providing support via coaching, improvements tailored for specific needs, and learning content to help people to be more autonomous and master the different tools, etc. Going blindly ahead with preconceived notions and a “we know best what works best for you” kind of attitude does not seem to be the most suitable — let alone humane — approach.

 

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

Let’s steer our ship into a virtuous circle

We want to be efficient, so we want our tools to actually be used. Our goal is thus to make our tools useful – yeah, because designing tools that are actually useful is what disruptive innovation is all about, to make Tech for good that is community-owned and still very much online!)

We are thus planning not to plan everything, except time and space dedicated to your feedback. We also want to be available to tackle issues we might face on each of the actions that we feel ready to take. In other words, if we already plan to develop new features, create tutorials, host webinars and draft learning content, we do not want to predefine everything upfront, so as to save some time to help our users, our main target.

A unicorn dressed as an astronaut (with a spaghetti strainer on its head) is walking on the clouds and is blowing bubbles. Inside the bubbles, we can see cubes that represent collective work (files, toolboxes, books, typewriters, abacus, etc.)
Frama.space – Illustration by David Revoy – License: CC-By 4.0

This is the virtuous circle that we defined over the course of our various experimentations and that best fits our workflow:

1. Launch a first draft of our project, although imperfect

It’s OK if the paint is still fresh, or if it’s still a rough sketch. It’s absolutely OK too to start with a very small target audience. We have 3 years ahead of us to improve all that, and we have time and resources in store to do so.

For example, while we hope to provide millions of organizations with Framaspace within 3 years, it will be a good start to offer it to 200-300 organizations by the end of 2022!

2. Take users’ feedback into account

The Frama.space forum, the PeerTube community the study programs on ECHO Network and the comments received on Emancip’Asso are all important resources to gather feedback on our tools. It’d be too easy to lock ourselves in an echo chamber and avoid the reality of those who are actually fighting on the battlefield.
We go as far as considering the creation of an Observatory of Practices and Free Open-Source Digital Experiences, basing ourselves on the organizations that make up the Frama.sapce user community. Codename: OPEN-L. Stay tuned for that… And let’s hope we manage to set it up!

3. Improve our solutions step by step

Our goal is to improve each of those actions over time. This could be done by creating documentation and pedagogical tools, moderating and facilitating user communities, working on the ergonomy or on new features to be developed.
We want to keep total freedom to improve each action depending on the feedback we get from users.

4. Link humans to tools, and to other humans

Here’s another important, yet often overlooked aspect: connections. Such a shame, considering that the Web is, by definition, designed to connect people, ideas and things. This step can take many forms. It may mean taking the time to introduce our users to the new improvements brought about by each of our actions. It may also mean broadening our user community for any given project. Finally, it may mean taking advantage of having organizations share a common tool by sharing with them, offering them and informing them on what their fellows are doing.

Additionally, it will take some journaling: to summarize experiences, the lessons learned, to gather the relevant resources… and share all of that with the community. Whatever the form, this connecting step is when we take the time to reflect, to review our actions so as to better start a new virtuous circle and launch a better version of the project.

🦆 Discover the projects we want to carry out  🦆 Support Framasoft

We ain’t no quacks. Please support us!

Ain’t gonna beat around the bush: Collectivise the Internet / Convivialise the Internet 🦆🦆 is a roadmap with a clear political purpose, in the sense that it shall contribute to changing the world (if only one byte at a time).

After eight years spent observing and informing the public on the future that Big Tech is already materializing for us day by day and the political choices that they are forcing on our societies, it feels more and more crucial to keep one corner of the Web free from their influence.

Such is « also » our role, because these new actions do not and will not replace the ones we are already conducting. All the ‘degoogleized » software already available to everyone, the development of PeerTube and Mobilizon, the FOSS collective CHATONS, the common cultural resources… All of these projects are still ongoing and will still require more work over the upcoming three years.

 

Portrait of a duck cheering in the foreground, while other ducks in the background are having a lantern-lit celebration among trees.
Quack-quack – Illustration by David Revoy – License: CC-By 4.0

If you agree with our set goals and strategy, if the actions that we are currently undertaking seem important to you, then we would like to remind you that Framasoft is exclusively funded by… You. It is only your kind contributions, eligible to a 66% tax cut for French taxpayers, that allow us to keep going in total independence.

If you can (as we are well aware that our current times are particularly harsh), and if you wish to, please support us.

 

🦆 Support Framasoft


This page has been translated from French to English by Framalang volunteers: Bastien, Bromind, Ellébore (proofreading), Goofy, GPSqueeek, Mathilde (proofreading), Stan, Susy