Le Fediverse et l’avenir des réseaux décentralisés

Le Fediverse est un réseau social multiforme qui repose sur une fédération de serveurs interconnectés. C’est un phénomène assez jeune encore, mais dont la croissance suscite déjà l’intérêt et des questionnements. Parmi les travaux d’analyse qui s’efforcent de prendre une distance critique, nous vous proposons « Sept thèses sur le Fediverse et le devenir du logiciel libre »

Cette traduction Framalang vous arrive aujourd’hui avec presque un an de retard. Le document était intégralement traduit par l’équipe de Framalang dès le printemps 2020, mais nous avons tergiversé sur sa publication, car nous souhaitions un support différent du blog, où les contributions auraient pu se répondre. Mais entre le premier confinement et d’autres projets qui sont venus s’intercaler…
Cependant le débat reste possible, non seulement les commentaires sont ouverts (et modérés) comme d’habitude, mais nous serions ravis de recueillir d’autres contributions qui voudraient s’emparer du thème du Fediverse pour apporter un nouvel éclairage sur ce phénomène encore jeune et en devenir. N’hésitez pas à publier votre analyse sur un blog personnel ou à défaut, ici même si vous le souhaitez.


Framalang met à votre disposition la traduction de Seven Theses on the Fediverse and the becoming of FLOSS.

Référence : Aymeric Mansoux et Roel Roscam Abbing, « Seven Theses on the Fediverse and the becoming of FLOSS », dans Kristoffer Gansing et Inga Luchs (éds.), The Eternal Network. The Ends and Becomings of Network Culture, Institute of Network Cultures, Amsterdam, 2020, p. 124-140. En ligne.

Traduction Framalang : Claire, dodosan, goofy, jums, Macrico, Mannik, mo, roptat, tykayn, wisi_eu.

Vous pouvez également lire cette traduction hors-connexion en un seul .pdf (21 pages, 179 Ko)

Licence Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International.


À noter : cet article bénéficie désormais d’une version audio.
Merci à Sualtam, auteur de lectureaudio.fr pour cette contribution active.

Sept Thèses sur le Fédiverse et le devenir du logiciel libre

par Aymeric Mansoux et Roel Roscam Abbing

SOMMAIRE

Préambule – À la rencontre du Fédiverse

  1. Le Fédiverse, de la guerre des mèmes à celle des réseaux
  2. Le Fédiverse en tant que critique permanente de l’ouverture
  3. Le Fédiverse comme lieu du pluralisme agoniste en ligne
  4. Le Fédiverse, transition entre une vision technique et une perception sociale de la protection de la vie privée
  5. Le Fédiverse, pour en finir avec la collecte de données et la main-d’œuvre gratuite
  6. Le Fédiverse, avènement d’un nouveau type d’usage
  7. Le Fédiverse : la fin des logiciels libres et open source tels que nous les connaissons

À la rencontre du Fédiverse

Ces dernières années, dans un contexte de critiques constantes et de lassitude généralisée associées aux plates-formes de médias sociaux commerciaux1, le désir de construire des alternatives s’est renforcé. Cela s’est traduit par une grande variété de projets animés par divers objectifs. Les projets en question ont mis en avant leurs différences avec les médias sociaux des grandes plates-formes, que ce soit par leur éthique, leur structure, les technologies qui les sous-tendent, leurs fonctionnalités, l’accès au code source ou encore les communautés construites autour d’intérêts spécifiques qu’ils cherchent à soutenir. Bien que diverses, ces plates-formes tendent vers un objectif commun : remettre clairement en question l’asservissement à une plate-forme unique dans le paysage des médias sociaux dominants. Par conséquent, ces projets nécessitent différents niveaux de décentralisation et d’interopérabilité en termes d’architecture des réseaux et de circulation de données. Ces plates-formes sont regroupées sous le terme de « Fédiverse », un mot-valise composé de « Fédération » et « univers ». La fédération est un concept qui vient de la théorie politique par lequel divers acteurs qui se constituent en réseau décident de coopérer tous ensemble. Les pouvoirs et responsabilités sont distribués à mesure que se forme le réseau. Dans le contexte des médias sociaux, les réseaux fédérés sont portés par diverses communautés sur différents serveurs qui peuvent interagir mutuellement, plutôt qu’à travers un logiciel ou une plate-forme unique. Cette idée n’est pas nouvelle, mais elle a récemment gagné en popularité et a réactivé les efforts visant à construire des médias sociaux alternatifs2.

Les tentatives précédentes de créer des plates-formes de médias sociaux fédérés venaient des communautés FLOSS (Free/Libre and Open Source software, les logiciels libres et open source3) qui avaient traditionnellement intérêt à procurer des alternatives libres aux logiciels propriétaires et privateurs dont les sources sont fermées. En tant que tels, ces projets se présentaient en mettant l’accent sur la similarité de leurs fonctions avec les plates-formes commerciales tout en étant réalisés à partir de FLOSS. Principalement articulées autour de l’ouverture des protocoles et du code source, ces plates-formes logicielles ne répondaient aux besoins que d’une audience modeste d’utilisateurs et de développeurs de logiciels qui étaient en grande partie concernés par les questions typiques de la culture FLOSS.
La portée limitée de ces tentatives a été dépassée en 2016 avec l’apparition de Mastodon, une combinaison de logiciels client et serveur pour les médias sociaux fédérés. Mastodon a été rapidement adopté par une communauté diversifiée d’utilisateurs et d’utilisatrices, dont de nombreuses personnes habituellement sous-représentées dans les FLOSS : les femmes, les personnes de couleur et les personnes s’identifiant comme LGBTQ+. En rejoignant Mastodon, ces communautés moins représentées ont remis en question la dynamique des environnements FLOSS existants ; elles ont également commencé à contribuer autant au code qu’à la contestation du modèle unique dominant des médias sociaux commerciaux dominants. Ce n’est pas une coïncidence si ce changement s’est produit dans le sillage du Gamergate4 en 2014, de la montée de l’alt-right et des élections présidentielles américaines de 2016. Fin 2017, Mastodon a dépassé le million d’utilisateurs qui voulaient essayer le Fédiverse comme une solution alternative aux plates-formes de médias sociaux commerciaux. Ils ont pu y tester par eux-mêmes si une infrastructure différente peut ou non conduire à des discours, des cultures et des espaces sûrs (safe spaces) différents.

Aujourd’hui, le Fédiverse comporte plus de 3,5 millions de comptes répartis sur près de 5 000 serveurs, appelés « instances », qui utilisent des projets logiciels tels que Friendica, Funkwhale, Hubzilla, Mastodon, Misskey, PeerTube, PixelFed et Pleroma, pour n’en citer que quelques-uns5. La plupart de ces instances peuvent être interconnectées et sont souvent focalisées sur une pratique, une idéologie ou une activité professionnelle spécifique. Dans cette optique, le projet Fédiverse démontre qu’il est non seulement techniquement possible de passer de gigantesques réseaux sociaux universels à de petites instances interconnectées, mais qu’il répond également à un besoin concret.

On peut considérer que la popularité actuelle du Fédiverse est due à deux tendances conjointes. Tout d’abord, le désir d’opérer des choix techniques spécifiques pour résoudre les problèmes posés par les protocoles fermés et les plates-formes propriétaires. Deuxièmement, une volonté plus large des utilisateurs de récupérer leur souveraineté sur les infrastructures des médias sociaux. Plus précisément, alors que les plates-formes de médias sociaux commerciaux ont permis à beaucoup de personnes de publier du contenu en ligne, le plus grand impact du Web 2.0 a été le découplage apparent des questions d’infrastructure des questions d’organisation sociale. Le mélange de systèmes d’exploitation et de systèmes sociaux qui a donné naissance à la culture du Net6 a été remplacé par un système de permissions et de privilèges limités pour les utilisateurs. Ceux qui s’engagent dans le Fédiverse travaillent à défaire ce découplage. Ils veulent contribuer à des infrastructures de réseau qui soient plus honnêtes quant à leurs idéologies sous-jacentes.

Ces nouvelles infrastructures ne se cachent pas derrière des manipulations d’idées en trompe-l’œil comme l’ouverture, l’accès universel ou l’ingénierie apolitique. Bien qu’il soit trop tôt aujourd’hui pour dire si le Fédiverse sera à la hauteur des attentes de celles et ceux qui la constituent et quel sera son impact à long terme sur les FLOSS, il est déjà possible de dresser la carte des transformations en cours, ainsi que des défis à relever dans ce dernier épisode de la saga sans fin de la culture du Net et de l’informatique. C’est pourquoi nous présentons sept thèses sur le Fédiverse et le devenir des FLOSS, dans l’espoir d’ouvrir le débat autour de certaines des questions les plus urgentes qu’elles soulèvent.

« interlace » par Joachim Aspenlaub Blattboldt, licence CC BY-NC-ND 2.0

Le Fédiverse, de la guerre des mèmes à celle des réseaux

Nous reconnaissons volontiers que toute réflexion sérieuse sur la culture du Net aujourd’hui doit traiter de la question des mèmes d’une façon ou d’une autre. Mais que peut-on ajouter au débat sur les mèmes en 2020 ? Il semble que tout ait déjà été débattu, combattu et exploité jusqu’à la corde par les universitaires comme par les artistes. Que nous reste-t-il à faire sinon nous tenir régulièrement au courant des derniers mèmes et de leur signification ? On oublie trop souvent que de façon cruciale, les mèmes ne peuvent exister ex nihilo. Il y a des systèmes qui permettent leur circulation et leur amplification : les plateformes de médias sociaux.

Les plateformes de médias sociaux ont démocratisé la production et la circulation des mèmes à un degré jamais vu jusqu’alors. De plus, ces plateformes se sont développées en symbiose avec la culture des mèmes sur Internet. Les plateformes de médias sociaux commerciaux ont été optimisées et conçues pour favoriser les contenus aptes à devenir des mèmes. Ces contenus encouragent les réactions et la rediffusion, ils participent à une stratégie de rétention des utilisateurs et de participation au capitalisme de surveillance. Par conséquent, dans les environnements en usage aujourd’hui pour la majeure partie des communications en ligne, presque tout est devenu un mème, ou doit afficher l’aptitude à en devenir un pour survivre — du moins pour être visible — au sein d’un univers de fils d’actualités gouvernés par des algorithmes et de flux contrôlés par des mesures7.

Comme les médias sociaux sont concentrés sur la communication et les interactions, on a complètement sous-estimé la façon dont les mèmes deviendraient bien plus que des vecteurs stratégiquement conçus pour implanter des idées, ou encore des trucs amusants et viraux à partager avec ses semblables. Ils sont devenus un langage, un argot, une collection de signes et de symboles à travers lesquels l’identité culturelle ou sous-culturelle peut se manifester. La circulation de tels mèmes a en retour renforcé certains discours politiques qui sont devenus une préoccupation croissante pour les plateformes. En effet, pour maximiser l’exploitation de l’activité des utilisateurs, les médias sociaux commerciaux doivent trouver le bon équilibre entre le laissez-faire et la régulation.

Ils tentent de le faire à l’aide d’un filtrage algorithmique, de retours d’utilisateurs et de conditions d’utilisation. Cependant, les plateformes commerciales sont de plus en plus confrontées au fait qu’elles ont créé de véritables boites de Pétri permettant à toutes sortes d’opinions et de croyances de circuler sans aucun contrôle, en dépit de leurs efforts visant à réduire et façonner le contenu discursif de leurs utilisateurs en une inoffensive et banale substance compatible avec leur commerce.

Malgré ce que les plateformes prétendent dans leurs campagnes de relations publiques ou lors des auditions des législateurs, il est clair qu’aucun solutionnisme technologique ni aucun travail externalisé et précarisé réalisé par des modérateurs humains traumatisés8 ne les aidera à reprendre le contrôle. En conséquence de l’augmentation de la surveillance menée par les plateformes de médias sociaux commerciaux, tous ceux qui sont exclus ou blessés dans ces environnements se sont davantage intéressés à l’idée de migrer sur d’autres plateformes qu’ils pourraient maîtriser eux-mêmes.

Les raisons incitant à une migration varient. Des groupes LGBTQ+ cherchent des espaces sûrs pour éviter l’intimidation et le harcèlement. Des suprémacistes blancs recherchent des plateformes au sein desquelles leur interprétation de la liberté d’expression n’est pas contestée. Raddle, un clone radicalisé, s’est développé à la suite de son exclusion du forum Reddit original ; à l’extrême-droite, il y a Voat, un autre clone de Reddit9. Ces deux plateformes ont développé leurs propres FLOSS en réponse à leur exclusion.

Au-delà de l’accès au code source, ce qui vaut aux FLOSS la considération générale, on ignore étonnamment l’un des avantages essentiels et historiques de la pratique des FLOSS : la capacité d’utiliser le travail des autres et de s’appuyer sur cette base. Il semble important aujourd’hui de développer le même logiciel pour un public réduit, et de s’assurer que le code source n’est pas influencé par les contributions d’une autre communauté. C’est une évolution récente dans les communautés FLOSS, qui ont souvent défendu que leur travail est apolitique.

C’est pourquoi, si nous nous mettons à évoquer les mèmes aujourd’hui, nous devons parler de ces plateformes de médias sociaux. Nous devons parler de ces environnements qui permettent, pour le meilleur comme pour le pire, une sédimentation du savoir : en effet, lorsqu’un discours spécifique s’accumule en ligne, il attire et nourrit une communauté, via des boucles de rétroaction qui forment des assemblages mémétiques. Nous devons parler de ce processus qui est permis par les Floss et qui en affecte la perception dans le même temps. Les plateformes de médias sociaux commerciaux ont décidé de censurer tout ce qui pourrait mettre en danger leurs affaires, tout en restant ambivalentes quant à leur prétendue neutralité10.

Mais contrairement à l’exode massif de certaines communautés et à leur repli dans la conception de leur propre logiciel, le Fédiverse offre plutôt un vaste système dans lequel les communautés peuvent être indépendantes tout en étant connectées à d’autres communautés sur d’autres serveurs. Dans une situation où la censure ou l’exil en isolement étaient les seules options, la fédération ouvre une troisième voie. Elle permet à une communauté de participer aux échanges ou d’entrer en conflit avec d’autres plateformes tout en restant fidèle à son cadre, son idéologie et ses intérêts.

Dès lors, deux nouveaux scénarios sont possibles : premièrement, une culture en ligne localisée pourrait être mise en place et adoptée dans le cadre de la circulation des conversations dans un réseau de communication partagé. Deuxièmement, des propos mémétiques extrêmes seraient susceptibles de favoriser l’émergence d’une pensée axée sur la dualité amis/ennemis entre instances, au point que les guerres de mèmes et la propagande simplistes seraient remplacés par des guerres de réseaux.

« Network » par photobunny, licence CC BY-NC-ND 2.0

Le Fédiverse en tant que critique permanente de l’ouverture

Les concepts d’ouverture, d’universalité, et de libre circulation de l’information ont été au cœur des récits pour promouvoir le progrès technologique et la croissance sur Internet et le Web. Bien que ces concepts aient été instrumentalisés pour défendre les logiciels libres et la culture du libre, ils ont aussi été cruciaux dans le développement des médias sociaux, dont le but consistait à créer des réseaux en constante croissance, pour embarquer toujours davantage de personnes communiquant librement les unes avec les autres. En suivant la tradition libérale, cette approche a été considérée comme favorisant les échanges d’opinion fertiles en fournissant un immense espace pour la liberté d’expression, l’accès à davantage d’informations et la possibilité pour n’importe qui de participer.

Cependant, ces systèmes ouverts étaient également ouverts à leur accaparement par le marché et exposés à la culture prédatrice des méga-entreprises. Dans le cas du Web, cela a conduit à des modèles lucratifs qui exploitent à la fois les structures et le contenu circulant11 dans tout le réseau.

Revenons à la situation actuelle : les médias sociaux commerciaux dirigent la surveillance des individus et prédisent leur comportement afin de les convaincre d’acheter des produits et d’adhérer à des idées politiques. Historiquement, des projets de médias sociaux alternatifs tels que GNU Social, et plus précisément Identi.ca/StatusNet, ont cherché à s’extirper de cette situation en créant des plateformes qui contrevenaient à cette forme particulière d’ouverture sur-commercialisée.

Ils ont créé des systèmes interopérables explicitement opposés à la publicité et au pistage par les traqueurs. Ainsi faisant, ils espéraient prouver qu’il est toujours possible de créer un réseau à la croissance indéfinie tout en distribuant la responsabilité de la détention des données et, en théorie, de fournir les moyens à des communautés variées de s’approprier le code source des plateformes ainsi que de contribuer à la conception du protocole.

C’était en somme la conviction partagée sur le Fédiverse vers 2016. Cette croyance n’a pas été remise en question, car le Fédiverse de l’époque n’avait pas beaucoup dévié du projet d’origine d’un logiciel libre de média social fédéré, lancé une décennie plus tôt.

Par conséquent, le Fédiverse était composé d’une foule très homogène, dont les intérêts recoupaient la technologie, les logiciels libres et les idéologies anti-capitalistes. Cependant, alors que la population du Fédiverse s’est diversifiée lorsque Mastodon a attiré des communautés plus hétérogènes, des conflits sont apparus entre ces différentes communautés. Cette fois, il s’agissait de l’idée même d’ouverture du Fédiverse qui était de plus en plus remise en question par les nouveaux venus. Contribuant à la critique, un appel a émergé de la base d’utilisateurs de Mastodon en faveur de la possibilité de bloquer ou « défédérer » d’autres serveurs du Fédiverse.

Bloquer signifie que les utilisateurs ou les administrateurs de serveurs pouvaient empêcher le contenu d’autres serveurs sur le réseau de leur parvenir. « Défédérer », dans ce sens, est devenu une possibilité supplémentaire dans la boîte à outils d’une modération communautaire forte, qui permettait de ne plus être confronté à du contenu indésirable ou dangereux. Au début, l’introduction de la défédération a causé beaucoup de frictions parmi les utilisateurs d’autres logiciels du Fédiverse. Les plaintes fréquentes contre Mastodon qui « cassait la fédération » soulignent à quel point ce changement était vu comme une menace pour le réseau tout entier12. Selon ce point de vue, plus le réseau pouvait grandir et s’interconnecter, plus il aurait de succès en tant qu’alternative aux médias sociaux commerciaux. De la même manière, beaucoup voyaient le blocage comme une contrainte sur les possibilités d’expression personnelle et d’échanges d’idées constructifs, craignant qu’il s’ensuive l’arrivée de bulles de filtres et d’isolement de communautés.

En cherchant la déconnexion sélective et en contestant l’idée même que le débat en ligne est forcément fructueux, les communautés qui se battaient pour la défédération ont aussi remis en cause les présupposés libéraux sur l’ouverture et l’universalité sur lesquels les logiciels précédents du Fédiverse étaient construits. Le fait qu’en parallèle à ces développements, le Fédiverse soit passé de 200 000 à plus de 3,5 millions de comptes au moment d’écrire ces lignes, n’est probablement pas une coïncidence. Plutôt que d’entraver le réseau, la défédération, les communautés auto-gouvernées et le rejet de l’universalité ont permis au Fédiverse d’accueillir encore plus de communautés. La présence de différents serveurs qui représentent des communautés si distinctes qui ont chacune leur propre culture locale et leur capacité d’action sur leur propre partie du réseau, sans être isolée de l’ensemble plus vaste, est l’un des aspects les plus intéressants du Fédiverse. Cependant, presque un million du nombre total de comptes sont le résultat du passage de la plateforme d’extrême-droite Gab aux protocoles du Fédiverse, ce qui montre que le réseau est toujours sujet à la captation et à la domination par une tierce partie unique et puissante13. Dans le même temps, cet événement a immédiatement déclenché divers efforts pour permettre aux serveurs de contrer ce risque de domination.

Par exemple, la possibilité pour certaines implémentations de serveurs de se fédérer sur la base de listes blanches, qui permettent aux serveurs de s’interconnecter au cas par cas, au lieu de se déconnecter au cas par cas. Une autre réponse qui a été proposée consistait à étendre le protocole ActivityPub, l’un des protocoles les plus populaires et discutés du Fédiverse, en ajoutant des méthodes d’autorisation plus fortes à base d’un modèle de sécurité informatique qui repose sur la capacité des objets (Object-capability model). Ce modèle permet à un acteur de retirer, a posteriori, la possibilité à d’autres acteurs de voir ou d’utiliser ses données. Ce qui est unique à propos du Fédiverse c’est cette reconnaissance à la fois culturelle et technique que l’ouverture a ses limites, et qu’elle est elle-même ouverte à des interprétations plus ou moins larges en fonction du contexte, qui n’est pas fixe dans le temps. C’est un nouveau point de départ fondamental pour imaginer de nouveaux médias sociaux.

« interlace » par Interlace Explorer, licence CC BY-NC-SA 2.0

Le Fédiverse comme lieu du pluralisme agoniste en ligne

Comme nous l’avons établi précédemment, une des caractéristiques du Fédiverse tient aux différentes couches logicielles et applications qui la constituent et qui peuvent virtuellement être utilisées par n’importe qui et dans n’importe quel but. Cela signifie qu’il est possible de créer une communauté en ligne qui peut se connecter au reste du Fédiverse mais qui opère selon ses propres règles, sa propre ligne de conduite, son propre mode d’organisation et sa propre idéologie. Dans ce processus, chaque communauté est capable de se définir elle-même non plus uniquement par un langage mémétique, un intérêt, une perspective commune, mais aussi par ses relations aux autres, en se différenciant. Une telle spécificité peut faire ressembler le Fédiverse à un assemblage d’infrastructures qui suivrait les principes du pluralisme agonistique. Le pluralisme agonistique, ou agonisme, a d’abord été conçu par Ernesto Laclau et Chantal Mouffe, qui l’ont par la suite développé en une théorie politique. Pour Mouffe, à l’intérieur d’un ordre hégémonique unique, le consensus politique est impossible. Une négativité radicale est inévitable dans un système où la diversité se limite à des groupes antagonistes14.

La thèse de Mouffe s’attaque aux systèmes démocratiques où les politiques qui seraient en dehors de ce que le consensus libéral juge acceptable sont systématiquement exclues. Toutefois, ce processus est aussi à l’œuvre sur les plateformes de médias sociaux commerciaux, dans le sens où ces dernières forment et contrôlent le discours pour qu’il reste acceptable par le paradigme libéral, et qu’il s’aligne sur ses propres intérêts commerciaux. Ceci a conduit à une radicalisation de celles et ceux qui en sont exclus.

Le pari fait par l’agonisme est qu’en créant un système dans lequel un pluralisme d’hégémonies est permis, il devienne possible de passer d’une conception de l’autre en tant qu’ennemi à une conception de l’autre en tant qu’adversaire politique. Pour que cela se produise, il faut permettre à différentes idéologies de se matérialiser par le biais de différents canaux et plateformes. Une condition préalable importante est que l’objectif du consensus politique doit être abandonné et remplacé par un consensus conflictuel, dans lequel la reconnaissance de l’autre devient l’élément de base des nouvelles relations, même si cela signifie, par exemple, accepter des points de vue non occidentaux sur la démocratie, la laïcité, les communautés et l’individu.

Pour ce qui est du Fédiverse, il est clair qu’il contient déjà un paysage politique relativement diversifié et que les transitions du consensus politique au consensus conflictuel peuvent être constatées au travers de la manière dont les communautés se comportent les unes envers les autres. À la base de ces échanges conflictuels se trouvent divers points de vue sur la conception et l’utilisation collectives de toutes les couches logicielles et des protocoles sous-jacents qui seraient nécessaires pour permettre une sorte de pluralisme agonistique en ligne.

Cela dit, les discussions autour de l’usage susmentionné du blocage d’instance et de la défédération sont férocement débattues, et, au moment où nous écrivons ces lignes, avec la présence apparemment irréconciliable de factions d’extrême gauche et d’extrême droite dans l’univers de la fédération, les réalités de l’antagonisme seront très difficiles à résoudre. La conception du Fédiverse comme système dans lequel les différentes communautés peuvent trouver leur place parmi les autres a été concrètement mise à l’épreuve en juillet 2019, lorsque la plateforme explicitement d’extrême droite, Gab, a annoncé qu’elle modifierait sa base de code, s’éloignant de son système propriétaire pour s’appuyer plutôt sur le code source de Mastodon.

En tant que projet qui prend explicitement position contre l’idéologie de Gab, Mastodon a été confronté à la neutralité des licences FLOSS. D’autres projets du Fédiverse, tels que les clients de téléphonie mobile FediLab et Tusky, ont également été confrontés au même problème, peut-être même plus, car la motivation directe des développeurs de Gab pour passer aux logiciels du Fédiverse était de contourner leur interdiction des app stores d’Apple et de Google pour violation de leurs conditions de service. En s’appuyant sur les clients génériques de logiciels libres du Fédiverse, Gab pourrait échapper à de telles interdictions à l’avenir, et aussi forger des alliances avec d’autres instances idéologiquement compatibles sur le Fédiverse15.

Dans le cadre d’une stratégie antifasciste plus large visant à dé-plateformer et à bloquer Gab sur le Fédiverse, des appels ont été lancés aux développeurs de logiciels pour qu’ils ajoutent du code qui empêcherait d’utiliser leurs clients pour se connecter aux serveurs Gab. Cela a donné lieu à des débats approfondis sur la nature des logiciels libres et open source, sur l’efficacité de telles mesures quant aux modifications du code source public, étant donné qu’elles peuvent être facilement annulées, et sur le positionnement politique des développeurs et mainteneurs de logiciels.

Au cœur de ce conflit se trouve la question de la neutralité du code, du réseau et des protocoles. Un client doit-il – ou même peut-il – être neutre ? Le fait de redoubler de neutralité signifie-t-il que les mainteneurs tolèrent l’idéologie d’extrême-droite ? Que signifie bloquer ou ne pas bloquer une autre instance ? Cette dernière question a créé un va-et-vient compliqué où certaines instances demanderont à d’autres instances de prendre part explicitement au conflit, en bloquant d’autres instances spécifiques afin d’éviter d’être elles-mêmes bloquées. La neutralité, qu’elle soit motivée par l’ambivalence, le soutien tacite, l’hypocrisie, le désir de troller, le manque d’intérêt, la foi dans une technologie apolitique ou par un désir agonistique de s’engager avec toutes les parties afin de parvenir à un état de consensus conflictuel… la neutralité donc est très difficile à atteindre. Le Fédiverse est l’environnement le plus proche que nous ayons actuellement d’un réseau mondial diversifié de singularités locales. Cependant, sa topologie complexe et sa lutte pour faire face au tristement célèbre paradoxe de la tolérance – que faire de l’idée de liberté d’expression ? – montre la difficulté d’atteindre un état de consensus conflictuel. Elle montre également le défi que représente la traduction d’une théorie de l’agonisme en une stratégie partagée pour la conception de protocoles, de logiciels et de directives communautaires. La tolérance et la liberté d’expression sont devenues des sujets explosifs après près de deux décennies de manipulation politique et de filtrage au sein des médias sociaux des grandes entreprises ; quand on voit que les plateformes et autres forums de discussion populaires n’ont pas réussi à résoudre ces problèmes, on n’est guère enclin à espérer en des expérimentations futures.

Plutôt que d’atteindre un état de pluralisme agonistique, il se pourrait que le Fédiverse crée au mieux une forme d’agonisme bâtard par le biais de la pilarisation. En d’autres termes, nous pourrions assister à une situation dans laquelle des instances ne formeraient de grandes agrégations agonistes-sans-agonisme qu’entre des communautés et des logiciels compatibles tant sur le plan idéologique que technique, seule une minorité d’entre elles étant capable et désireuse de faire le pont avec des systèmes radicalement opposés. Quelle que soit l’issue, cette question de l’agonisme et de la politique en général est cruciale pour la culture du réseau et de l’informatique. Dans le contexte des systèmes post-politiques occidentaux et de la manière dont ils prennent forme sur le net, un sentiment de déclin de l’esprit partisan et de l’action militante politique a donné l’illusion, ou plutôt la désillusion, qu’il n’y a plus de boussole politique. Si le Fédiverse nous apprend quelque chose, c’est que le réseau et les composants de logiciel libres de son infrastructure n’ont jamais été aussi politisés qu’aujourd’hui. Les positions politiques qui sont générées et hébergées sur le Fédiverse ne sont pas insignifiantes, mais sont clairement articulées. De plus, comme le montre la prolifération de célébrités politiques et de politiciens utilisant activement les médias sociaux, une nouvelle forme de démocratie représentative émerge, dans laquelle le langage mémétique des cultures post-numériques se déplace effectivement dans le monde de la politique électorale et inversement16.

« THINK Together » par waynewhuang licence CC BY-NC 2.0

 

Le Fédiverse, transition entre une vision technique et une perception sociale de la protection de la vie privée

Par le passé, les débats sur les risques des médias sociaux commerciaux se sont focalisés sur les questions de vie privée et de surveillance, surtout depuis les révélations de Snowden en 2013. Par conséquent, de nombreuses réponses techniques, en particulier celles issues des communautés FLOSS, se sont concentrées sur la sécurité des traitements des données personnelles. Cela peut être illustré par la multiplication des applications de messagerie et de courrier électronique chiffrées post-Snowden17. La menace perçue par ces communautés est la possibilité de surveillance du réseau, soit par des agences gouvernementales, soit par de grandes entreprises.

Les solutions proposées sont donc des outils qui implémentent un chiffrement fort à la fois dans le contenu et dans la transmission du message en utilisant idéalement des topologies de réseaux de pair à pair qui garantissent l’anonymat. Ces approches, malgré leur rigueur, requièrent des connaissances techniques considérables de la part des utilisateurs.

Le Fédiverse bascule alors d’une conception à dominante technique vers une conception plus sociale de la vie privée, comme l’ont clairement montré les discussions qui ont eu lieu au sein de l’outil de suivi de bug de Mastodon, lors de ces premières étapes de développement. Le modèle de menace qui y est discuté comprend les autres utilisateurs du réseau, les associations accidentelles entre des comptes et les dynamiques des conversations en ligne elles-mêmes. Cela signifie qu’au lieu de se concentrer sur des caractéristiques techniques telles que les réseaux de pair à pair et le chiffrement de bout en bout, le développement a été axé sur la construction d’outils de modération robustes, sur des paramétrages fins de la visibilité des messages et sur la possibilité de bloquer d’autres instances.

Ces fonctionnalités, qui favorisent une approche plus sociale de la protection de la vie privée, ont été développées et défendues par les membres des communautés marginalisées, dont une grande partie se revendique comme queer. Comme le note Sarah Jamie Lewis :

Une grande partie de la rhétorique actuelle autour des […] outils de protection de la vie privée est axée sur la surveillance de l’État. Les communautés LGBTQI+ souhaitent parfois cacher des choses à certains de leurs parents et amis, tout en pouvant partager une partie de leur vie avec d’autres. Se faire des amis, se rencontrer, échapper à des situations violentes, accéder à des services de santé, s’explorer et explorer les autres, trouver un emploi, pratiquer le commerce du sexe en toute sécurité… sont autant d’aspects de la vie de cette communauté qui sont mal pris en compte par ceux qui travaillent aujourd’hui sur la protection de la vie privée18.

Alors que tout le monde a intérêt à prendre en compte les impacts sur la vie privée d’interactions (non sollicitées) entre des comptes d’utilisateurs, par exemple entre un employeur et un employé, les communautés marginalisées sont affectées de manière disproportionnée par ces formes de surveillance et leurs conséquences. Lorsque la conception de nouvelles plateformes sur le Fédiverse comme Mastodon a commencé — avec l’aide de membre de ces communautés — ces enjeux ont trouvé leur place sur les feuilles de route de développement des logiciels. Soudain, les outils de remontée de défauts techniques sont également devenus un lieu de débat de questions sociales, culturelles et politiques. Nous reviendrons sur ce point dans la section six.

Les technologies qui ont finalement été développées comprennent le blocage au niveau d’une instance, des outils de modérations avancés, des avertissements sur la teneur des contenus et une meilleure accessibilité. Cela a permis à des communautés géographiquement, culturellement et idéologiquement disparates de partager le même réseau selon leurs propres conditions. De ce fait, le Fédiverse peut être compris comme un ensemble de communautés qui se rallient autour d’un serveur, ou une instance, afin de créer un environnement où chacun se sent à l’aise. Là encore, cela constitue une troisième voie : ni un modèle dans lequel seuls ceux qui ont des aptitudes techniques maîtrisent pleinement leurs communications, ni un scénario dans lequel la majorité pense n’avoir « rien à cacher » simplement parce qu’elle n’a pas son mot à dire ni le contrôle sur les systèmes dont elle est tributaire. En effet, le changement vers une perception sociale de la vie privée a montré que le Fédiverse est désormais un laboratoire dans lequel on ne peut plus prétendre que les questions d’organisation sociale et de gouvernance sont détachées des logiciels.

Ce qui compte, c’est que le Fédiverse marque une évolution de la définition des questions de surveillance et de protection de la vie privée comme des problématiques techniques vers leur formulation en tant qu’enjeux sociaux. Cependant, l’accent mis sur la dimension sociale de la vie privée s’est jusqu’à présent limité à placer sa confiance dans d’autres serveurs et administrateurs pour qu’ils agissent avec respect.
Cela peut être problématique dans le cas par exemple des messages directs (privés), par leur confidentialité inhérente, qui seraient bien mieux gérés avec des solutions techniques telles que le chiffrement de bout en bout. De plus, de nombreuses solutions recherchées dans le développement des logiciels du Fédiverse semblent être basées sur le collectif plutôt que sur l’individu. Cela ne veut pas dire que les considérations de sécurité technique n’ont aucune importance. Les serveurs du Fédiverse ont tendance à être équipés de paramètres de « confidentialité par défaut », tels que le nécessaire chiffrement de transport et le proxy des requêtes distantes afin de ne pas exposer les utilisateurs individuels.

Néanmoins, cette évolution vers une approche sociale de la vie privée n’en est qu’à ses débuts, et la discussion doit se poursuivre sur de nombreux autres plans.

« Liseron sur ombelles » par philolep, licence CC BY-NC-SA 2.0

Le Fédiverse, pour en finir avec la collecte de données et la main-d’œuvre gratuite

Les grandes plateformes de médias sociaux, qui se concentrent sur l’utilisation de statistiques pour récompenser leur usage et sur la gamification, sont tristement célèbres pour utiliser autant qu’elles le peuvent le travail gratuit. Quelle que soit l’information introduite dans le système, elle sera utilisée pour créer directement ou indirectement des modélisations, des rapports et de nouveaux jeux de données qui possèdent un intérêt économique fondamental pour les propriétaires de ces plateformes : bienvenue dans le monde du capitalisme de surveillance19.

Jusqu’à présent il a été extrêmement difficile de réglementer ces produits et services, en partie à cause du lobbying intense des propriétaires de plateformes et de leurs actionnaires, mais aussi et peut-être de façon plus décisive, à cause de la nature dérivée de la monétisation qui est au cœur des entreprises de médias sociaux. Ce qui est capitalisé par ces plateformes est un sous-produit algorithmique, brut ou non, de l’activité et des données téléchargées par ses utilisateurs et utilisatrices. Cela crée un fossé qui rend toujours plus difficile d’appréhender la relation entre le travail en ligne, le contenu créé par les utilisateurs, le pistage et la monétisation.

Cet éloignement fonctionne en réalité de deux façons. D’abord, il occulte les mécanismes réels qui sont à l’œuvre, ce qui rend plus difficile la régulation de la collecte des données et leur analyse. Il permet de créer des situations dans lesquelles ces plateformes peuvent développer des produits dont elles peuvent tirer profit tout en respectant les lois sur la protection de la vie privée de différentes juridictions, et donc promouvoir leurs services comme respectueux de la vie privée. Cette stratégie est souvent renforcée en donnant à leurs utilisatrices et utilisateurs toutes sortes d’options pour les induire en erreur et leur faire croire qu’ils ont le contrôle de ce dont ils alimentent la machine.

Ensuite, en faisant comme si aucune donnée personnelle identifiable n’était directement utilisée pour être monétisée ; ces plateformes dissimulent leurs transactions financières derrière d’autres sortes de transactions, comme les interactions personnelles entre utilisatrices, les opportunités de carrière, les groupes et discussion gérés par des communautés en ligne, etc. Au bout du compte, les utilisateurs s’avèrent incapables de faire le lien entre leur activité sociale ou professionnelle et son exploitation, parce tout dérive d’autres transactions qui sont devenues essentielles pour nos vies connectées en permanence, en particulier à l’ère de l’« entrepecariat » et de la connectivité quasi obligatoire au réseau.

Nous l’avons vu précédemment : l’approche sociale de la vie privée en ligne a influencé la conception initiale de Mastodon, et le Fédiverse offre une perspective nouvelle sur le problème du capitalisme de surveillance. La question de l’usage des données des utilisateurs et utilisatrices et la façon dont on la traite, au niveau des protocoles et de l’interface utilisateur, sont des points abordés de façon transparente et ouverte. Les discussions se déroulent publiquement à la fois sur le Fédiverse et dans les plateformes de suivi du logiciel. Les utilisateurs expérimentés du Fédiverse ou l’administratrice locale d’un groupe Fédiverse, expliquent systématiquement aux nouveaux utilisateurs la façon dont les données circulent lorsqu’ils rejoignent une instance.

Cet accueil permet généralement d’expliquer comment la fédération fonctionne et ce que cela implique concernant la visibilité et l’accès aux données partagées par ces nouveaux utilisateurs21. Cela fait écho à ce que Robert Gehl désigne comme une des caractéristiques des plateformes de réseaux sociaux alternatifs. Le réseau comme ses coulisses ont une fonction pédagogique. On indique aux nouvelles personnes qui s’inscrivent comment utiliser la plateforme et chacun peut, au-delà des permissions utilisateur limitées, participer à son développement, à son administration et à son organisation22. En ce sens, les utilisateurs et utilisatrices sont incitées par le Fédiverse à participer activement, au-delà de simples publications et « likes » et sont sensibilisés à la façon dont leurs données circulent.

Pourtant, quel que soit le niveau d’organisation, d’autonomie et d’implication d’une communauté dans la maintenance de la plateforme et du réseau (au passage, plonger dans le code est plus facile à dire qu’à faire), rien ne garantit un plus grand contrôle sur les données personnelles. On peut facilement récolter et extraire des données de ces plateformes et cela se fait plus facilement que sur des réseaux sociaux privés. En effet, les services commerciaux des réseaux sociaux privés protègent activement leurs silos de données contre toute exploitation extérieure.

Actuellement, il est très facile d’explorer le Fédiverse et d’analyser les profils de ses utilisatrices et utilisateurs. Bien que la plupart des plateformes du Fédiverse combattent le pistage des utilisateurs et la collecte de leurs données, des tiers peuvent utiliser ces informations. En effet, le Fédiverse fonctionne comme un réseau ouvert, conçu à l’origine pour que les messages soient publics. De plus, étant donné que certains sujets, notamment des discussions politiques, sont hébergées sur des serveurs spécifiques, les communautés de militant⋅e⋅s peuvent être plus facilement exposées à la surveillance. Bien que le Fédiverse aide les utilisateurs à comprendre, ou à se rappeler, que tout ce qui est publié en ligne peut échapper et échappera à leur contrôle, elle ne peut pas empêcher toutes les habitudes et le faux sentiment de sécurité hérités des réseaux sociaux commerciaux de persister, surtout après deux décennies de désinformation au sujet de la vie privée numérique23.

De plus, bien que l’exploitation du travail des utilisateurs et utilisatrices ne soit pas la même que sur les plateformes de médias sociaux commerciaux, il reste sur ce réseau des problèmes autour de la notion de travail. Pour les comprendre, nous devons d’abord admettre les dégâts causés, d’une part, par la merveilleuse utilisation gratuite des réseaux sociaux privés, et d’autre part, par la mécompréhension du fonctionnement des logiciels libres ou open source : à savoir, la manière dont la lutte des travailleurs et la question du travail ont été masquées dans ces processus24.

Cette situation a incité les gens à croire que le développement des logiciels, la maintenance des serveurs et les services en ligne devraient être mis gratuitement à leur disposition. Les plateformes de média sociaux commerciaux sont justement capables de gérer financièrement leurs infrastructures précisément grâce à la monétisation des contenus et des activités de leurs utilisateurs. Dans un système où cette méthode est évitée, impossible ou fermement rejetée, la question du travail et de l’exploitation apparaît au niveau de l’administration des serveurs et du développement des logiciels et concerne tous celles et ceux qui contribuent à la conception, à la gestion et à la maintenance de ces infrastructures.

Pour répondre à ce problème, la tendance sur le Fédiverse consiste à rendre explicites les coûts de fonctionnement d’un serveur communautaire. Tant les utilisatrices que les administrateurs encouragent le financement des différents projets par des donations, reconnaissant ainsi que la création et la maintenance de ces plateformes coûtent de l’argent. Des projets de premier plan comme Mastodon disposent de davantage de fonds et ont mis en place un système permettant aux contributeurs d’être rémunérés pour leur travail25.

Ces tentatives pour compenser le travail des contributeurs sont un pas en avant, cependant étendre et maintenir ces projets sur du long terme demande un soutien plus structurel. Sans financement significatif du développement et de la maintenance, ces projets continueront à dépendre de l’exploitation du travail gratuit effectué par des volontaires bien intentionnés ou des caprices des personnes consacrant leur temps libre au logiciel libre. Dans le même temps, il est de plus en plus admis, et il existe des exemples, que le logiciel libre peut être considéré comme un bien d’utilité publique qui devrait être financé par des ressources publiques26. À une époque où la régulation des médias sociaux commerciaux est débattue en raison de leur rôle dans l’érosion des institutions publiques, le manque de financement public d’alternatives non prédatrices devrait être examiné de manière plus active.

Enfin, dans certains cas, les personnes qui accomplissent des tâches non techniques comme la modération sont rémunérées par les communautés du Fédiverse. On peut se demander pourquoi, lorsqu’il existe une rémunération, certaines formes de travail sont payées et d’autres non. Qu’en est-il par exemple du travail initial et essentiel de prévenance et de critique fourni par les membres des communautés marginalisées qui se sont exprimés sur la façon dont les projets du Fédiverse devraient prendre en compte une interprétation sociale de la protection de la vie privée ? Il ne fait aucun doute que c’est ce travail qui a permis au Fédiverse d’atteindre le nombre d’utilisateurs qu’elle a aujourd’hui.

Du reste comment cette activité peut-elle être évaluée ? Elle se manifeste dans l’ensemble du réseau, dans des fils de méta-discussions ou dans les systèmes de suivi, et n’est donc pas aussi quantifiable ou visible que la contribution au code. Donc, même si des évolutions intéressantes se produisent, il reste à voir si les utilisateurs et les développeuses du Fédiverse peuvent prendre pleinement conscience de ces enjeux et si les modèles économiques placés extérieurs au capitalisme de surveillance peuvent réussir à soutenir une solidarité et une attention sans exploitation sur tous les maillons de la chaîne.

« Liseron sur ombelles » par philolep, licence CC BY-NC-SA 2.0

« basket weaving » par cloudberrynine, licence CC BY-NC-ND 2.0

Le Fédiverse, avènement d’un nouveau type d’usage

On peut envisager le Fédiverse comme un ensemble de pratiques, ou plutôt un ensemble d’attentes et de demandes concernant les logiciels de médias sociaux, dans lesquels les efforts disparates de projets de médias sociaux alternatifs convergent en un réseau partagé avec des objectifs plus ou moins similaires. Les différents modèles d’utilisation, partagés entre les serveurs, vont de plateformes d’extrême-droite financées par le capital-risque à des systèmes de publication d’images japonaises, en passant par des collectifs anarcho-communistes, des groupes politiques, des amateurs d’algorithmes de codage en direct, des « espaces sûrs » pour les travailleur⋅euse⋅s du sexe, des forums de jardinage, des blogs personnels et des coopératives d’auto-hébergement. Ces pratiques se forment parallèlement au problème du partage des données et du travail gratuit, et font partie de la transformation continuelle de ce que cela implique d’être utilisateur ou utilisatrice de logiciel.

Les premiers utilisateurs de logiciels, ou utilisateurs d’appareils de calcul, étaient aussi leurs programmeuses et programmeurs, qui fournissaient ensuite les outils et la documentation pour que d’autres puissent contribuer au développement et à l’utilisation de ces systèmes27.

Ce rôle était si important que les premières communautés d’utilisateurs furent pleinement soutenues et prises en charge par les fabricants de matériel.

Avance rapide de quelques décennies et, avec la croissance de l’industrie informatique, la notion d’ « utilisateur » a complètement changé pour signifier « consommateur apprivoisé » avec des possibilités limitées de contribution ou de modification des systèmes qu’ils utilisent, au-delà de personnalisations triviales ou cosmétiques. C’est cette situation qui a contribué à façonner une grande partie de la popularité croissante des FLOSS dans les années 90, en tant qu’adversaires des systèmes d’exploitation commerciaux propriétaires pour les ordinateurs personnels, renforçant particulièrement les concepts antérieurs de liberté des utilisateurs28. Avec l’avènement du Web 2.0, la situation changea de nouveau. En raison de la dimension communicative et omniprésente des logiciels derrière les plateformes de médias sociaux d’entreprises, les fournisseurs ont commencé à offrir une petite ouverture pour un retour de la part de leurs utilisateurs, afin de rendre leur produit plus attrayant et pertinent au quotidien. Les utilisateurs peuvent généralement signaler facilement les bugs, suggérer de nouvelles fonctionnalités ou contribuer à façonner la culture des plateformes par leurs échanges et le contenu partagés. Twitter en est un exemple bien connu, où des fonctionnalités essentielles, telles que les noms d’utilisateur préfixés par @ et les hashtags par #, ont d’abord été suggérés par les utilisateurs. Les forums comme Reddit permettent également aux utilisateurs de définir et modérer des pages, créant ainsi des communautés distinctes et spécifiques.

Sur les plateformes alternatives de médias sociaux comme le Fédiverse, en particulier à ses débuts, ces formes de participation vont plus loin. Les utilisatrices et utilisateurs ne se contentent pas de signaler des bogues ou d’aider a la création d’une culture des produits, ils s’impliquent également dans le contrôle du code, dans le débat sur ses effets et même dans la contribution au code. À mesure que le Fédiverse prend de l’ampleur et englobe une plus grande diversité de cultures et de logiciels, les comportements par rapport à ses usages deviennent plus étendus. Les gens mettent en place des nœuds supplémentaires dans le réseau, travaillent à l’élaboration de codes de conduite et de conditions de service adaptées, qui contribuent à l’application de lignes directrices communautaires pour ces nœuds. Ils examinent également comment rendre ces efforts durables par un financement via la communauté.

Ceci dit, toutes les demandes de changement, y compris les contributions pleinement fonctionnelles au code, ne sont pas acceptées par les principaux développeurs des plateformes. Cela s’explique en partie par le fait que les plus grandes plateformes du Fédiverse reposent sur des paramètres par défaut, bien réfléchis, qui fonctionnent pour ces majorités diverses, plutôt que l’ancien modèle archétypique de FLOSS, pour permettre une personnalisation poussée et des options qui plaisent aux programmeurs, mais en découragent beaucoup d’autres. Grâce à la disponibilité du code source, un riche écosystème de versions modifiées de projets (des forks) existe néanmoins, qui permet d’étendre ou de limiter certaines fonctionnalités tout en conservant un certain degré de compatibilité avec le réseau plus large.
Les débats sur les mérites des fonctionnalités et des logiciels modifiés qu’elles génèrent nourrissent de plus amples discussions sur l’orientation de ces projets, qui à leur tour conduisent à une attention accrue autour de leur gouvernance.

Il est certain que ces développements ne sont ni nouveaux ni spécifiques au Fédiverse. La manière dont les facilitateurs de services sont soutenus sur le Fédiverse, par exemple, est analogue à la manière dont les créateurs de contenu sur les plateformes de streaming au sein des communautés de jeux sont soutenus par leur public. Des appels à une meilleure gouvernance des projets logiciels sont également en cours dans les communautés FLOSS plus largement. L’élaboration de codes de conduite (un document clé pour les instances de la Fédiverse mis en place pour exposer leur vision de la communauté et de la politique) a été introduit dans diverses communautés FLOSS au début des années 2010, en réponse à la misogynie systématique et à la l’exclusion des minorités des espaces FLOSS à la fois en ligne et hors ligne29. Les codes de conduite répondent également au besoin de formes génératrices de résolution des conflits par-delà les barrières culturelles et linguistiques.

De même, bon nombre des pratiques de modération et de gestion communautaire observées dans le Fédiverse ont hérité des expériences d’autres plateformes, des succès et défaillances d’autres outils et systèmes. La synthèse et la coordination de toutes ces pratiques deviennent de plus en plus visibles dans l’univers fédéré.
En retour, les questions et les approches abordées dans le Fédiverse ont créé un précédent pour d’autres projets des FLOSS, en encourageant des transformations des discussions qui étaient jusqu’alors limitées ou difficiles à engager.

Il n’est pas évident, compte tenu de la diversité des modèles d’utilisation, que l’ensemble du Fédiverse fonctionne suivant cette tendance. Les développements décrits ci-dessus suggèrent cependant que de nombreux modèles d’utilisation restent à découvrir et que le Fédiverse est un environnement favorable pour les tester. La nature évolutive de l’utilisation du Fédiverse montre à quel point l’écart est grand entre les extrêmes stéréotypés du modèle capitaliste de surveillance et du martyre auto-infligé des plateformes de bénévolat. Ce qui a des implications sur le rôle des utilisateurs en relation avec les médias sociaux alternatifs, ainsi que pour le développement de la culture des FLOSS30.

« What a tangled web we weave….. » par Pandiyan, licence CC BY-NC 2.0

Le Fédiverse : la fin des logiciels libres et open source tels que nous les connaissons

Jusqu’à présent, la grande majorité des discussions autour des licences FLOSS sont restées enfermées dans une comparaison cliché entre l’accent mis par le logiciel libre sur l’éthique de l’utilisateur et l’approche de l’open source qui repose sur l’économie31.

Qu’ils soient motivés par l’éthique ou l’économie, les logiciels libres et les logiciels open source partagent l’idéal selon lequel leur position est supérieure à celle des logiciels fermés et aux modes de production propriétaires. Toutefois, dans les deux cas, le moteur libéral à la base de ces perspectives éthiques et économiques est rarement remis en question. Il est profondément enraciné dans un contexte occidental qui, au cours des dernières décennies, a favorisé la liberté comme le conçoivent les libéraux et les libertariens aux dépens de l’égalité et du social.

Remettre en question ce principe est une étape cruciale, car cela ouvrirait des discussions sur d’autres façons d’aborder l’écriture, la diffusion et la disponibilité du code source. Par extension, cela mettrait fin à la prétention selon laquelle ces pratiques seraient soit apolitiques, soit universelles, soit neutres.

Malheureusement, de telles discussions ont été difficiles à faire émerger pour des raisons qui vont au-delà de la nature dogmatique des agendas des logiciels libres et open source. En fait, elles ont été inconcevables car l’un des aspects les plus importants des FLOSS est qu’ils ont été conçus comme étant de nature non discriminatoire. Par « non discriminatoire », nous entendons les licences FLOSS qui permettent à quiconque d’utiliser le code source des FLOSS à n’importe quelle fin.

Certains efforts ont été faits pour tenter de résoudre ce problème, par exemple au niveau de l’octroi de licences discriminatoires pour protéger les productions appartenant aux travailleurs, ou pour exclure l’utilisation par l’armée et les services de renseignement32.

Ces efforts ont été mal accueillis en raison de la base non discriminatoire des FLOSS et de leur discours. Pis, la principale préoccupation du plaidoyer en faveur des FLOSS a toujours été l’adoption généralisée dans l’administration, l’éducation, les environnements professionnels et commerciaux, et la dépolitisation a été considérée comme la clé pour atteindre cet objectif. Cependant, plus récemment, la croyance en une dépolitisation, ou sa stratégie, ont commencé à souffrir de plusieurs manières.

Tout d’abord, l’apparition de ce nouveau type d’usager a entraîné une nouvelle remise en cause des modèles archétypaux de gouvernance des projets de FLOSS, comme celui du « dictateur bienveillant ». En conséquence, plusieurs projets FLOSS de longue date ont été poussés à créer des structures de compte-rendu et à migrer vers des formes de gouvernance orientées vers la communauté, telles que les coopératives ou les associations.
Deuxièmement, les licences tendent maintenant à être combinées avec d’autres documents textuels tels que les accords de transfert de droits d’auteur, les conditions de service et les codes de conduite. Ces documents sont utilisés pour façonner la communauté, rendre leur cohérence idéologique plus claire et tenter d’empêcher manipulations et malentendus autour de notions vagues comme l’ouverture, la transparence et la liberté.

Troisièmement, la forte coloration politique du code source remet en question la conception actuelle des FLOSS. Comme indiqué précédemment, certains de ces efforts sont motivés par le désir d’éviter la censure et le contrôle des plateformes sociales des entreprises, tandis que d’autres cherchent explicitement à développer des logiciels à usage antifasciste. Ces objectifs interrogent non seulement l’universalité et l’utilité globale des grandes plateformes de médias sociaux, ils questionnent également la supposée universalité et la neutralité des logiciels. Cela est particulièrement vrai lorsque les logiciels présentent des conditions, codes et accords complémentaires explicites pour leurs utilisateurs et les développeuses.

Avec sa base relativement diversifiée d’utilisatrices, de développeurs, d’agenda, de logiciels et d’idéologies, le Fédiverse devient progressivement le système le plus pertinent pour l’articulation de nouvelles formes de la critique des FLOSS. Il est devenu un endroit où les notions traditionnelles sur les FLOSS sont confrontées et révisées par des personnes qui comprennent son utilisation dans le cadre d’un ensemble plus large de pratiques qui remettent en cause le statu quo. Cela se produit parfois dans un contexte de réflexion, à travers plusieurs communautés, parfois par la concrétisation d’expériences et des projets qui remettent directement en question les FLOSS tels que nous les connaissons. C’est devenu un lieu aux multiples ramifications où les critiques constructives des FLOSS et l’aspiration à leur réinvention sont très vives. En l’état, la culture FLOSS ressemble à une collection rapiécée de pièces irréconciliables provenant d’un autre temps et il est urgent de réévaluer nombre de ses caractéristiques qui étaient considérées comme acquises.

Si nous pouvons accepter le sacrilège nécessaire de penser au logiciel libre sans le logiciel libre, il reste à voir ce qui pourrait combler le vide laissé par son absence.


  1. Consulter Geert Lovink, Sad by Design: On Platform Nihilism (Triste par essence: Du nihilisme des plates-formes, non traduit en français), London: Pluto Press, 2019.
  2. Dans tout ce document nous utiliserons « médias sociaux commerciaux » et « médias sociaux alternatifs » selon les définitions de Robert W. Gehl dans « The Case for Alternative Social Media » (Pour des médias sociaux alternatifs, non traduit en français), Social Media + Society, juillet-décembre 2015, p. 1-12. En ligne.
  3. Danyl Strype, « A Brief History of the GNU Social Fediverse and ‘The Federation’ » (Une brève histoire de GNU Social, du Fédiverse et de la ‘fédération’, non traduit en français), Disintermedia, 1er Avril 2017. En ligne.
  4. Pour une exploration du #GamerGate et des technocultures toxiques, consulter Adrienne Massanari, « #Gamergate and The Fappening: How Reddit’s Algorithm, Governance, and Culture Support Toxic Technocultures » (#GamerGate et Fappening : comment les algorithmes, la gouvernance et la culture de Reddit soutiennent les technocultures toxiques, non traduit en français), New Media & Society, 19(3), 2016, p. 329-346.
  5. En raison de la nature décentralisée du Fédiverse, il n’est pas facile d’obtenir les chiffres exacts du nombre d’utilisateurs, mais quelques projets tentent de mesurer la taille du réseau: The Federation ; Fediverse Network ; Mastodon Users, Bitcoin Hackers.
  6. Pour un exemple de ce type de mélange, consulter Michael Rossman, « Implications of Community Memory » (Implications du projet Community Memory, non traduit en français) SIGCAS – Computers & Society, 6(4), 1975, p. 7-10.
  7. Aymeric Mansoux, « Surface Web Times » (L’ère du Web de surface, non traduit en français), MCD, 69, 2013, p. 50-53.
  8. Burcu Gültekin Punsmann, « What I learned from three months of Content Moderation for Facebook in Berlin » (Ce que j’ai appris de trois mois de modération de contenu pour Facebook à Berlin, non traduit en français), SZ Magazin, 6 January 2018. En ligne.
  9. Pour consulter le code source, voir Raddle ; Postmill, ‘GitLab’ ; Voat ; Voat, ‘GitLab’.
  10. Gabriella Coleman, « The Political Agnosticism of Free and Open Source Software and the Inadvertent Politics of Contrast » (L’agnosticisme politique des FLOSS et la politique involontaire du contraste, non traduit en français), Anthropological Quarterly, 77(3), 2004, p. 507-519.
  11. Pour une discussion plus approfondie sur les multiples possibilités procurés par l’ouverture mais aussi pour un commentaire sur le librewashing, voyez l’article de Jeffrey Pomerantz and Robin Peek, « Fifty Shades of Open », First Monday, 21(5), 2016. En ligne.
  12. Comme exemple d’arguments contre la défédération, voir le commentaire de Kaiser sous l’article du blog de Robek « rw » World : « Mastodon Socal Is THE Twitter Alternative For… », Robek World, 12 janvier 2017. En ligne.
  13. Au moment où Gab a rejoint le réseau, les statistiques du Fédiverse ont augmenté d’environ un million d’utilisateurs. Ces chiffres, comme tous les chiffres d’utilisation du Fédiverse, sont contestés. Pour le contexte, voir John Dougherty et Michael Edison Hayden, « ‘No Way’ Gab has 800,000 Users, Web Host Says », Southern Poverty Law Center, 14 février 2019. En ligne. Et le message sur Mastodon de emsenn le 10 août 2017, 04:51.
  14. Pour une introduction exhaustive aux écrits de Chantal Mouffe, voir Chantal Mouffe, Agonistique : penser politiquement le monde, Paris, Beaux-Arts de Paris éditions, 2014. On lira aussi avec profit la page Wikipédia consacrée à l’agonisme.
  15. Andrew Torba : « Le passage au protocole ActivityPub pour notre base nous permet d’entrer dans les App Stores mobiles sans même avoir à soumettre ni faire approuver nos propres applications, que cela plaise ou non à Apple et à Google », posté sur Gab, url consultée en mai 2019.
  16. David Garcia, « The Revenge of Folk Politics », transmediale/journal, 1, 2018. En ligne.
  17. hbsc & friends, « Have You Considered the Alternative? », Homebrew Server Club, 9 March 2017. En ligne.
  18. Sarah Jamie Lewis (éd.), Queer Privacy: Essays From The Margin Of Society, Victoria, British Columbia, Lean Pub/Mascherari Press, 2017, p. 2.
  19. Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, PublicAffairs, 2019.
  20. Silvio Lorusso, Entreprecariat – Everyone Is an Entrepreneur. Nobody Is Safe, Onomatopee: Eindhoven, 2019.
  21. Pour un exemple d’introduction très souvent citée en lien, rédigée par une utilisatrice, cf. Noëlle Anthony,
    Joyeusenoelle/GuideToMastodon, 2019. En ligne.
  22. Au sein de ce texte, nous utilisons « média social commercial » (corporate social media) et « média social alternatif » (alternative social media) comme définis par Robert W. Gehl, « The Case for Alternative Social Media », op. cit..
  23. Pour un relevé permanent de ces problématiques, cf. Pervasive Labour Union Zine, en ligne.
  24. Bien que formulée dans le contexte de Tumblr, pour une discussion à propos des tensions entre le travail numérique, les communautés post-numériques et l’activisme, voyez Cassius Adair et Lisa Nakamura, « The Digital Afterlives of This Bridge Called My Back: Woman of Color Feminism, Digital Labor, and Networked Pedagogy », American Literature, 89(2), 2017, p. 255-278.
  25. « Mastodon », Open Collective. En ligne.
  26. Pour des éléments de discussion sur le financement public des logiciels libres, ainsi que quelques analyses des premiers jets de lois concernant l’accès au code source des logiciels achetés avec l’argent public, cf. Jesús M. González-Barahona, Joaquín Seoane Pascual et Gregorio Robles, Introduction to Free Software, Barcelone, Universitat Oberta de Catalunya, 2009.
  27. par exemple, consultez Atsushi Akera, « Voluntarism and the Fruits of Collaboration: The IBM UserGroup, Share », Technology and Culture, 42(4), 2001, p. 710-736.
  28. Sam Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, Farnham: O’Reilly, 2002.
  29. Femke Snelting, « Codes of Conduct: Transforming Shared Values into Daily Practice », dans Cornelia Sollfrank (éd.), The Beautiful Warriors: Technofeminist Praxis in the 21st Century, Colchester, Minor Compositions, 2019, pp. 57-72.
  30. Dušan Barok, Privatising Privacy: Trojan Horse in Free Open Source Distributed Social Platforms, Thèse de Master, Networked Media, Piet Zwart Institute, Rotterdam/Netherlands, 2011.
  31. Voyez l’échange de correspondance Stallman-Ghosh-Glott sur l’étude du FLOSS, « Two Communities or Two Movements in One Community? », dans Rishab Aiyer Ghosh, Ruediger Glott, Bernhard Krieger and Gregorio Robles, Free/Libre and Open Source Software: Survey and Study, FLOSS final report, International Institute of Infonomics, University of Maastricht, Netherlands, 2002. En ligne.
  32. Consultez par exemple Felix von Leitner, « Mon Jul 6 2015 », Fefes Blog, 6 July 2015, en ligne.

 


Qui sont les auteurs

AYMERIC MANSOUX s’amuse avec les ordinateurs et les réseaux depuis bien trop longtemps. Il a été un membre fondateur du collectif GOTO10 (FLOSS+Art anthology, Puredyne distro, make art festival). Parmi les collaborations récentes, citons : Le Codex SKOR, une archive sur l’impossibilité d’archiver ; What Remains, un jeu vidéo 8 bits sur la manipulation des l’opinion publique et les lanceurs d’alerte pour la console Nintendo de 1985 ; et LURK, une une infrastructure de serveurs pour les discussions sur la liberté culturelle, l’art dans les nouveaux médias et la culture du net. Aymeric a obtenu son doctorat au Centre d’études culturelles, Goldsmiths, Université de Londres en 2017, pour son enquête sur le déclin de la diversité culturelle et des formes techno-légales de l’organisation sociale dans le cadre de pratiques culturelles libres et open-source. Il dirige actuellement le Cours de maîtrise en édition expérimentale (XPUB) à l’Institut Piet Zwart, Rotterdam. https://bleu255.com/~aymeric.

ROEL ROSCAM ABBING est un artiste et chercheur dont les travaux portent sur les questions et les cultures entourant les ordinateurs en réseau. Il s’intéresse à des thèmes tels que le réseau, les infrastructures, la politique de la technologie et les approches DIY (NdT : « Faites-le vous-même »). Il est doctorant dans le domaine du design d’interaction à l’université de Malmö.

 




Le Web est-il devenu trop compliqué ?

Le Web, tout le monde s’en sert et beaucoup en sont très contents. Mais, même parmi ceux et celles qui sont ravi·es de l’utiliser, il y a souvent des critiques. Elles portent sur de nombreux aspects et je ne vais pas essayer de lister ici toutes ces critiques. Je vais parler d’un problème souvent ressenti : le Web n’est-il pas devenu trop compliqué ?

À noter : cet article bénéficie désormais d’une version audio.
Merci à Sualtam, auteur de lectureaudio.fr pour cette contribution active.

Je ne parle pas de la complexité pour l’utilisateur, par exemple des problèmes qu’il ou elle peut avoir avec telle ou telle application Web, ou tel formulaire incompréhensible ou excluant. Non, je parle de la complexité des nombreuses technologies sous-jacentes. Alors, si vous n’êtes pas technicien·ne, vous avez peut-être envie d’arrêter votre lecture ici en pensant qu’on ne parlera que de technique. Mais ce n’est pas le cas, cet article est pour tous et toutes. (Ceci dit, si vous arrêtez votre lecture pour jouer avec le chat, manger un bon plat, lire un livre passionnant ou faire des câlins à la personne appropriée, cela ne me dérange pas et je vous souhaite un agréable moment.)

Mais revenons à l’objection « OK, les techniques utilisées dans le Web sont compliquées mais cela ne concerne que les développeuses et développeurs, non ? » Eh bien non car cette complication a des conséquences pour tous et toutes. Elle se traduit par des logiciels beaucoup plus complexes, donc elle réduit la concurrence, très peu d’organisations pouvant aujourd’hui développer un navigateur Web. Elle a pour conséquence de rendre l’utilisation du Web plus lente : bien que les machines et les réseaux aient nettement gagné en performance, le temps d’affichage d’une page ne cesse d’augmenter. Passer à la fibre ou à la 5G ne se traduira pas forcément par un gain de temps, puisque ce sont souvent les calculs nécessaires à l’affichage qui ralentissent la navigation. Et enfin cette complication augmente l’empreinte environnementale du Web, en imposant davantage d’opérations aux machines, ce qui pousse au remplacement plus rapide des terminaux.

L’insoutenable lourdeur du Web

Une page Web d’aujourd’hui n’est en effet pas une simple description d’un contenu. Elle inclut la « feuille de style », rédigée dans le langage CSS, qui va indiquer comment présenter la page, du JavaScript, un langage de programmation qui va être exécuté pour faire varier le contenu de la page, des vidéos, et d’autres choses qui souvent distraient du contenu lui-même. Je précise que je ne parle pas ici des applications tournant sur le Web (comme une application d’accès au courrier électronique, ou une application de gestion des évènements ou l’application maison utilisée par les employés d’une organisation pour gérer leur travail), non, je parle des pages Web de contenu, qui ne devraient pas avoir besoin de toute cette artillerie.

Du fait de cette complexité, il n’existe aujourd’hui que quatre ou cinq navigateurs Web réellement distincts. Écrire un navigateur Web aujourd’hui est une tâche colossale, hors de portée de la très grande majorité des organisations. La concurrence a diminué sérieusement. La complexité technique a donc des conséquences stratégiques pour le Web. Et ceci d’autant plus qu’il n’existe derrière ces navigateurs que deux moteurs de rendu, le cœur du navigateur, la partie qui interprète le langage HTML et le CSS et dessine la page. Chrome, Edge et Safari utilisent le même moteur de rendu, WebKit (ou l’une de ses variantes).

Et encore tout ne tourne pas sur votre machine. Derrière votre écran, l’affichage de la moindre page Web va déclencher d’innombrables opérations sur des machines que vous ne voyez pas, comme les calculs des entreprises publicitaires qui vont, en temps réel, déterminer les « meilleures » publicités à vous envoyer dans la figure ou comme l’activité de traçage des utilisateurs, notant en permanence ce qu’ils font, d’où elles viennent et de nombreuses autres informations, dont beaucoup sont envoyées automatiquement par votre navigateur Web, qui travaille au moins autant pour l’industrie publicitaire que pour vous. Pas étonnant que la consommation énergétique du numérique soit si importante. Et ces calculs côté serveur ont une grande influence sur la capacité du serveur à tenir face à une charge élevée, comme on l’a vu pendant les confinements Covid-19. Les sites Web de l’Éducation Nationale ne tenaient pas le coup, même quand il s’agissait uniquement de servir du contenu statique.

La surveillance coûte cher

La complexité du Web cache en effet également cette activité de surveillance, pratiquée aussi bien par les entreprises privées que par les États. Autrefois, acheter un journal à un kiosque et le lire étaient des activités largement privées. Aujourd’hui, toute activité sur le Web est enregistrée et sert à nourrir les bases de données du monde de la publicité, ou les fichiers des États. Comme exemple des informations envoyées par votre navigateur, sans que vous en ayez clairement connaissance, on peut citer bien sûr les fameux cookies. Ce sont des petits fichiers choisis par le site Web et envoyés à votre navigateur. Celui-ci les stockera et, lors d’une visite ultérieure au même site Web, renverra le cookie. C’est donc un outil puissant de suivi de l’utilisateur. Et ne croyez pas que, si vous visitez un site Web, seule l’organisation derrière ce site pourra vous pister. La plupart des pages Web incluent en effet des ressources extérieures (images, vidéos, boutons de partage), pas forcément chargés depuis le site Web que vous visitez et qui ont eux aussi leurs cookies. La loi Informatique et Libertés (et, aujourd’hui, le RGPD) impose depuis longtemps que les utilisateurs soient prévenus de ce pistage et puissent s’y opposer, mais il a fallu très longtemps pour que la CNIL tape sur la table et impose réellement cette information des utilisateurs, le « bandeau cookies ». Notez qu’il n’est pas obligatoire. D’abord, si le site Web ne piste pas les utilisateurs, il n’y a pas d’obligation d’un tel bandeau, ensuite, même en cas de pistage, de nombreuses exceptions sont prévues.

Un bandeau cookies. Notez qu’il n’y a pas de bouton Refuser.

 

Les bandeaux cookies sont en général délibérément conçus pour qu’il soit difficile de refuser. Le but est que l’utilisateur clique rapidement sur « Accepter » pour en être débarrassé, permettant ainsi à l’entreprise qui gère le site Web de prétendre qu’il y a eu consentement.

Désolé de la longueur de ce préambule, d’autant plus qu’il est très possible que, en tant que lectrice ou lecteur du Framablog, vous soyez déjà au courant. Mais il était nécessaire de revenir sur ces problèmes du Web pour mieux comprendre les projets qui visent à corriger le tir. Notez que les évolutions néfastes du Web ne sont pas qu’un problème technique. Elles sont dues à des raisons économiques et politiques et donc aucune approche purement technique ne va résoudre complètement le problème. Cela ne signifie pas que les techniciens et techniciennes doivent rester les bras croisés. Ils et elles peuvent apporter des solutions partielles au problème.

Bloquer les saletés

Première approche possible vers un Web plus léger, tenter de bloquer les services néfastes. Tout bon navigateur Web permet ainsi un certain contrôle de l’usage des cookies. C’est par exemple ce que propose Firefox dans une rubrique justement nommée « Vie privée et sécurité ».

Le menu de Firefox pour contrôler notamment les cookies

 

On peut ainsi bloquer une partie du système de surveillance. Cette approche est très recommandée mais notez que Firefox vous avertit que cela risque d’ « empêcher certains sites de fonctionner ». Cet avertissement peut faire hésiter certains utilisateurs, d’autant plus qu’avec les sites en question, il n’y aura aucun message clair, uniquement des dysfonctionnements bizarres. La plupart des sites Web commerciaux sont en effet développés sans tenir compte de la possibilité que le visiteur ait activé ces options. Si le site de votre banque ne marche plus après avoir changé ces réglages, ne comptez pas sur le support technique de la banque pour vous aider à analyser le problème, on vous dira probablement uniquement d’utiliser Google Chrome et de ne pas toucher aux réglages. D’un côté, les responsables du Web de surveillance disent qu’on a le choix, qu’on peut changer les réglages, d’un autre côté ils exercent une pression sociale intense pour qu’on ne le fasse pas. Et puis, autant on peut renoncer à regarder le site Web d’un journal lorsqu’il ne marche pas sans cookies, autant on ne peut guère en faire autant lorsqu’il s’agit de sa banque.

De même qu’on peut contrôler, voire débrayer les cookies, on peut supprimer le code Javascript. À ma connaissance, Firefox ne permet pas en standard de le faire, mais il existe une extension nommée NoScript pour le faire. Comme avec les cookies, cela posera des problèmes avec certains sites Web et, pire, ces problèmes ne se traduiront pas par des messages clairs mais par des dysfonctionnements. Là encore, peu de chance que le logiciel que l’entreprise en question a chargé de répondre aux questions sur Twitter vous aide.

Enfin, un troisième outil pour limiter les divers risques du Web est le bloqueur de publicité. (Personnellement, j’utilise uBlock Origin.)

uBlock Origin sur le site du Monde, où il a bloqué trois pisteurs et publicités. On voit aussi à gauche la liste des sites chargés automatiquement par votre navigateur quand vous regardez Le Monde.

 

Absolument indispensable à la fois pour éviter de consacrer du temps de cerveau à regarder les publicités, pour la sécurité (les réseaux de distribution de la publicité sont l’endroit idéal pour diffuser du logiciel malveillant) et aussi pour l’empreinte environnementale, le bloqueur empêchant le chargement de contenus qui feront travailler votre ordinateur pour le profit des agences de publicité et des annonceurs.

Un navigateur Web léger ?

Une solution plus radicale est de changer de navigateur Web. On peut ainsi préférer le logiciel Dillo, explicitement conçu pour la légèreté, les performances et la vie privée. Dillo marche parfaitement avec des sites Web bien conçus, mais ceux-ci ne sont qu’une infime minorité. La plupart du temps, le site sera affiché de manière bizarre. Et on ne peut pas le savoir à l’avance ; naviguer sur le Web avec Dillo, c’est avoir beaucoup de mauvaises surprises et seulement quelques bonnes (le Framablog, que vous lisez en ce moment, marche très bien avec Dillo).

Le site de l’Élysée vu par Dillo. Inutilisable (et pas par la faute de Dillo mais par le choix de l’Élysée d’un site spectaculaire plutôt qu’informatif).

 

Autre navigateur « alternatif », le Tor Browser. C’est un Firefox modifié, avec NoScript inclus et qui, surtout, ne se connecte pas directement au site Web visité mais passe par plusieurs relais du réseau Tor, supprimant ainsi un moyen de pistage fréquent, l’adresse IP de votre ordinateur. Outre que certains sites ne réagissent pas bien aux réglages du Tor Browser, le passage par le réseau Tor se traduit par des performances décrues.

Toutes ces solutions techniques, du bloqueur de publicités au navigateur léger et protecteur de la vie privée, ont un problème commun : elles sont perçues par les sites Web comme « alternatives » voire « anormales ». Non seulement le site Web risque de ne pas fonctionner normalement mais surtout, on n’est pas prévenu à l’avance, et même après on n’a pas de diagnostic clair. Le Web, pourtant devenu un écosystème très complexe, n’a pas de mécanismes permettant d’exprimer des préférences et d’être sûr qu’elles sont suivies. Certes, il existe des techniques comme l’en-tête « Do Not Track » où votre navigateur annonce qu’il ne souhaite pas être pisté mais il est impossible de garantir qu’il sera respecté et, vu le manque d’éthique de la grande majorité des sites Web, il vaut mieux ne pas compter dessus.

Gemini, une solution de rupture

Cela a mené à une approche plus radicale, sur laquelle je souhaitais terminer cet article, le projet Gemini. Gemini est un système complet d’accès à l’information, alternatif au Web, même s’il en reprend quelques techniques. Gemini est délibérément très simple : le protocole, le langage parlé entre le navigateur et le serveur, est très limité, afin d’éviter de transmettre des informations pouvant servir au pistage (comme l’en-tête User-Agent du Web) et il n’est pas extensible. Contrairement au Web, aucun mécanisme n’est prévu pour ajouter des fonctions, l’expérience du Web ayant montré que ces fonctions ne sont pas forcément dans l’intérêt de l’utilisateur. Évidemment, il n’y a pas l’équivalent des cookies. Et le format des pages est également très limité, à la fois pour permettre des navigateurs simples (pas de CSS, pas de Javascript), pour éviter de charger des ressources depuis un site tiers et pour diminuer la consommation de ressources informatiques par le navigateur. Il n’y a même pas d’images. Voici deux exemples de navigateurs Gemini :

Le client Gemini Lagrange

 

Le même site Gemini, vu par un client différent, Elpher

 

Gemini est un système récent, s’inspirant à la fois de systèmes anciens (comme le Web des débuts) et de choses plus récentes (ainsi, contrairement au Web, le chiffrement du trafic, pour compliquer la surveillance, est systématique). Il reprend notamment le concept d’URL donc par exemple le site d’informations sur les alertes de tempêtes solaires utilisé plus haut à titre d’exemple est gemini://gemini.bortzmeyer.org/presto/. Gemini est actuellement en cours de développement, de manière très ouverte, notamment sur la liste de diffusion publique du projet. Tout le monde peut participer à sa définition. (Mais, si vous voulez le faire, merci de lire la FAQ d’abord, pour ne pas recommencer une question déjà discutée.) Conformément aux buts du projet, écrire un client ou un serveur Gemini est facile et des dizaines de logiciels existent déjà. Le nom étant une allusion aux missions spatiales étatsuniennes Gemini, mais signifiant également « jumeaux » en latin, beaucoup de ces logiciels ont un nom qui évoque le spatial ou la gémellité. Pour la même raison spatiale, les sites Gemini se nomment des capsules, et il y en a actuellement quelques centaines opérationnelles. (Mais, en général, avec peu de contenu original. Gemini ressemble pour l’instant au Web des débuts, avec du contenu importé automatiquement d’autres services, et du contenu portant sur Gemini lui-même.)

On a vu que Gemini est une solution très disruptive et qui ne sera pas facilement adoptée, tant le marketing a réussi à convaincre que, sans vidéos incluses dans la page, on ne peut pas être vraiment heureux. Gemini ne prétend pas à remplacer le Web pour tous ses usages. Par exemple, un CMS, logiciel de gestion de contenu, comme le WordPress utilisé pour cet article, ne peut pas être fait avec Gemini, et ce n’est pas son but. Son principal intérêt est de nous faire réfléchir sur l’accès à l’information : de quoi avons-nous besoin pour nous informer ?

—  —  —




Détruire le capitalisme de surveillance – 5

Voici la cinquième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les cinq premiers épisodes en un seul PDF de 50 pages ).

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang : Claire, Fabrice, goofy, Jums, Susyl, anonymes

Dignité et sanctuaire

Quand bien même nous exercerions un contrôle démocratique sur nos États et les forcerions à arrêter de piller les silos de données comportementales du capitalisme de surveillance, ce dernier continuera à nous maltraiter. Nous vivons une époque parfaitement éclairée par Zuboff. Son chapitre sur le sanctuaire – ce sentiment de ne pas être observé – est une magnifique ode à l’introspection, au calme, à la pleine conscience et à la tranquillité.

Quand nous sommes observé⋅e, quelque chose change. N’importe quel parent sait ce que cela signifie. Vous pouvez lever la tête de votre bouquin (ou plus vraisemblablement de votre téléphone) et observer votre enfant dans un état profond de réalisation de soi et d’épanouissement, un instant où il est en train d’apprendre quelque chose à la limite de ses capacités, qui demande une concentration intense. Pendant un court laps de temps, vous êtes sidéré⋅e, et vous observez ce moment rare et beau de concentration qui se déroule devant vos yeux, et puis votre enfant lève la tête, vous voit le regarder, et ce moment s’évanouit. Pour grandir, vous devez être vous-même et donner à voir votre moi authentique, c’est à ce moment que vous devenez vulnérable, tel un bernard-l’hermite entre deux coquilles.

Cette partie de vous, tendre et fragile, que vous exposez au monde dans ces moments-là, est bien trop délicate pour être révélée à autrui, pas même à une personne à laquelle vous faites autant confiance qu’un enfant à ses parents.

À l’ère numérique, notre moi authentique est inextricablement mêlé à de notre vie en ligne. Votre historique de recherche est un enregistrement en continu des questions que vous vous posez. Votre historique de géolocalisation est un registre des endroits que vous cherchiez et des expériences que vous avez vécues en ces lieux. Votre réseau social révèle les différentes facettes de votre personnalité ainsi que les gens avec qui vous êtes en contact.

Être observé pendant ces activités, c’est perdre le sanctuaire de votre moi authentique. Mais il y a une autre manière pour le capitalisme de surveillance de nous dérober notre capacité d’être véritablement nous-même : nous rendre anxieux. Ce capitalisme de surveillance n’est pas vraiment un rayon de contrôle mental, pas besoin de ça pour rendre quelqu’un anxieux. Après tout, l’anxiété est le synonyme d’agitation, et pour qu’une personne se sente agitée, il n’y a pas vraiment besoin de la secouer. Il suffit d’aiguillonner et de piquer et de notifier et de bourdonner autour et de bombarder de manière intermittente et juste assez aléatoire pour que notre système limbique ne puisse jamais vraiment s’y habituer.

Nos appareils et nos services sont polyvalents dans le sens où ils peuvent connecter n’importe quoi ou n’importe qui à n’importe quoi ou à n’importe qui d’autre, et peuvent aussi exécuter n’importe quel programme. Cela signifie que ces rectangles de distractions dans nos poches détiennent nos plus précieux moments avec nos proches, tout comme les communications les plus urgentes et les plus sensibles (de « je suis en retard, peux-tu aller chercher les gamins ? » jusqu’à « mauvaise nouvelle du docteur, il faut qu’on parle TOUT DE SUITE »), mais aussi les pubs pour les frigos et les messages de recrutement nazis.

À toute heure du jour ou de la nuit, nos poches sonnent, font voler en éclat notre concentration, détruisent le fragile maillage de nos réflexions quand nous avons besoin de penser des situations difficiles. Si vous enfermiez quelqu’un dans une cellule et que vous l’agitiez de la sorte, on appellerait ça de la torture par privation de sommeil, et ce serait considéré comme un crime de guerre par la Convention de Genève.

Affliger les affligés

Les effets de la surveillance sur notre capacité à être nous-mêmes ne sont pas les mêmes pour tout le monde. Certain⋅e⋅s d’entre nous ont la chance de vivre à une époque et dans un lieu où tous les faits les plus importants de leur vie sont socialement acceptés et peuvent être exposés au grand jour sans en craindre les conséquences sociales.

Mais pour beaucoup d’entre nous, ce n’est pas le cas. Rappelez-vous que, d’aussi loin qu’on s’en souvienne, de nombreuses façons d’être, considérées aujourd’hui comme socialement acceptables, ont donné lieu à de terribles condamnations sociales, voire à des peines d’emprisonnement. Si vous avez 65 ans, vous avez connu une époque où les personnes vivant dans des « sociétés libres » pouvaient être emprisonnées ou punies pour s’être livrées à des pratiques homosexuelles, pour être tombées amoureuses d’une personne dont la peau était d’une couleur différente de la leur, ou pour avoir fumé de l’herbe.

Aujourd’hui, non seulement ces pratiques sont dépénalisées dans une grande partie du monde, mais en plus, elles sont considérées comme normales, et les anciennes prohibitions sont alors vues comme des vestiges d’un passé honteux et regrettable.

Comment sommes-nous passés de la prohibition à la normalisation ? Par une activité privée et personnelle : les personnes dont l’homosexualité étaient secrète ou qui fumaient de l’herbe en secret, ou qui aimaient quelqu’un d’une couleur de peau différente de la leur en secret, étaient susceptibles de représailles si elles dévoilaient leur moi authentique. On les empêchait de défendre leur droit à exister dans le monde et à être en accord avec elles-mêmes. Mais grâce à la sphère privée, ces personnes pouvaient former des liens forts avec leurs amis et leurs proches qui ne partageaient pas leurs manières de vivre mal vues par la société. Elles avaient des conversations privées dans lesquelles elles se dévoilaient, elles révélaient leur moi authentique à leurs proches, puis les ralliaient à leur cause au fil des conversations.

Le droit de choisir le moment et la manière d’aborder ces conversations a joué un rôle fondamental dans le renversement des normes. C’est une chose de faire son coming out à son père au cours d’une sortie de pêche à l’écart du monde, c’en est une autre de tout déballer pendant le repas de Noël, en présence de son oncle raciste sur Facebook prêt à faire une scène.

Sans sphère privée, il est possible qu’aucun de ces changements n’aurait eu lieu et que les personnes qui en ont bénéficié auraient subi une condamnation sociale pour avoir fait leur coming out face à un monde hostile ou alors elles n’auraient jamais pu révéler leur moi authentique aux personnes qu’elles aiment.

Et donc, à moins que vous ne pensiez que notre société ait atteint la perfection sociale – et que vos petits-enfants vous demanderont dans 50 ans de leur raconter comment, en 2020, toutes les injustices ont été réparées et qu’il n’y avait plus eu de changement à apporter –, vous devez vous attendre à ce qu’en ce moment même figurent parmi vos proches des personnes, dont le bonheur est indissociable du vôtre, et dont le cœur abrite un secret qui les empêche toujours de dévoiler leur moi authentique en votre présence. Ces personnes souffrent et emporteront leur chagrin secret dans leur tombe, et la source de ce chagrin, ce sera les relations faussées qu’elles entretenaient avec vous.

Une sphère privée est nécessaire au progrès humain.

Toute donnée collectée et conservée finit par fuiter

L’absence de vie privée peut empêcher les personnes vulnérables d’exprimer leur moi authentique et limiter nos actions en nous privant d’un sanctuaire. Mais il existe un autre risque, encouru par tous et pas seulement par les personnes détenant un secret : la criminalité.

Les informations d’identification personnelle présentent un intérêt très limité pour contrôler l’esprit des gens, mais le vol d’identité – terme fourre-tout pour désigner toute une série de pratiques délictueuses graves, susceptibles de détruire vos finances, de compromettre votre intégrité personnelle, de ruiner votre réputation, voire de vous exposer à un danger physique – est en pleine expansion.

Les attaquants ne se limitent pas à utiliser des données issues de l’intrusion dans une seule et même source.

De nombreux services ont subi des violations qui ont révélé des noms, des adresses, des numéros de téléphone, des mots de passe, des préférences sexuelles, des résultats scolaires, des réalisations professionnelles, des démêlés avec la justice, des informations familiales, des données génétiques, des empreintes digitales et autres données biométriques, des habitudes de lecture, des historiques de recherche, des goûts littéraires, des pseudonymes et autres données sensibles. Les attaquants peuvent fusionner les données provenant de ces violations pour constituer des dossiers très détaillés sur des sujets choisis au hasard, puis utiliser certaines parties des données pour commettre divers délits.

Les attaquants peuvent, par exemple, utiliser des combinaisons de noms d’utilisateur et de mots de passe dérobés pour détourner des flottes entières de véhicules commerciaux équipés de systèmes de repérage GPS et d’immobilisation antivol, ou pour détourner des babyphones afin de terroriser les tout-petits en diffusant du contenu audio pornographique. Les attaquants utilisent les données divulguées pour tromper les opérateurs téléphoniques afin qu’ils leur communiquent votre numéro de téléphone, puis ils interceptent des codes d’authentification à deux facteurs par SMS pour pirater votre courrier électronique, votre compte bancaire ou vos portefeuilles de crypto-monnaie.

Les attaquants rivalisent de créativité pour trouver des moyens de transformer les données divulguées en armes. Ces données sont généralement utilisées pour pénétrer dans les entreprises afin d’accéder à davantage de données.

Tout comme les espions, les fraudeurs en ligne dépendent entièrement des entreprises qui collectent et conservent nos données à outrance. Les agences d’espionnage paient voire intimident parfois des entreprises pour avoir accès à leurs données, elles peuvent aussi se comporter comme des délinquants et dérober du contenu de bases de données d’entreprises.

La collecte excessive de données entraîne de graves conséquences sociales, depuis la destruction de notre moi authentique jusqu’au recul du progrès social, de la surveillance de l’État à une épidémie de cybercriminalité. La surveillance commerciale est également une aubaine pour les personnes qui organisent des campagnes d’influence, mais c’est le cadet de nos soucis.

L’exceptionnalisme technologique critique reste un exceptionnalisme technologique

Les géants de la tech ont longtemps pratiqué un exceptionnalisme technologique : cette idée selon laquelle ils ne devraient pas être soumis aux lois et aux normes du commun des mortels. Des devises comme celle de Facebook « Move fast and break things » [avancer vite et casser des choses, NdT] ont provoqué un mépris compréhensible envers ces entreprises à la rhétorique égoïste.

L’exceptionnalisme technologique nous a tous mis dans le pétrin. Il est donc assez ironique et affligeant de voir les critiques des géants de la tech commettre le même péché.

Les géants de la tech ne forment pas un « capitalisme voyou » qui ne peut être guéri par les remèdes traditionnels anti-monopole que sont le démantèlement des trusts (forcer les entreprises à se défaire des concurrents qu’elles ont acquis) et l’interdiction des fusions monopolistiques et autres tactiques anticoncurrentielles. Les géants de la tech n’ont pas le pouvoir d’utiliser l’apprentissage machine pour influencer notre comportement de manière si approfondie que les marchés perdent la capacité de punir les mauvais acteurs et de récompenser les concurrents vertueux. Les géants de la tech n’ont pas de rayon de contrôle mental qui réécrit les règles, si c’était le cas, nous devrions nous débarrasser de notre vieille boîte à outils.

Cela fait des siècles que des gens prétendent avoir mis au point ce rayon de contrôle mental et cela s’est toujours avéré être une arnaque, même si parfois les escrocs se sont également arnaqués entre eux.

Depuis des générations, le secteur de la publicité améliore constamment sa capacité à vendre des services publicitaires aux entreprises, tout en ne réalisant que des gains marginaux sur la vente des produits de ces entreprises. La complainte de John Wanamaker selon laquelle « La moitié de l’argent que je dépense en publicité est gaspillée, mais je ne sais pas quelle moitié » témoigne du triomphe des directeurs de la publicité qui ont réussi à convaincre Wanamaker que la moitié seulement de ce qu’il dépense était gaspillée.

L’industrie technologique a fait d’énormes progrès dans la capacité à convaincre les entreprises qu’elles sont douées pour la publicité, alors que leurs améliorations réelles en matière de publicité, par opposition au ciblage, ont été plutôt modestes. La vogue de l’apprentissage machine – et l’invocation mystique de l’« intelligence artificielle » comme synonyme de techniques d’inférence statistique directe – a considérablement renforcé l’efficacité du discours commercial des géants de la tech, car les spécialistes du marketing ont exploité le manque de connaissance technique des clients potentiels pour s’en tirer avec énormément de promesses et peu de résultats.

Il est tentant de penser que si les entreprises sont prêtes à déverser des milliards dans un projet, celui-ci doit être bon. Pourtant, il arrive souvent que cette règle empirique nous fasse faire fausse route. Par exemple, on n’a pratiquement jamais entendu dire que les fonds d’investissement surpassent les simples fonds indiciels, et les investisseurs qui confient leur argent à des gestionnaires de fonds experts s’en sortent généralement moins bien que ceux qui confient leur épargne à des fonds indiciels. Mais les fonds gérés représentent toujours la majorité de l’argent investi sur les marchés, et ils sont soutenus par certains des investisseurs les plus riches et les plus pointus du monde. Leur vote de confiance dans un secteur aussi peu performant est une belle leçon sur le rôle de la chance dans l’accumulation de richesses, et non un signe que les fonds de placement sont une bonne affaire.

Les affirmations du système de contrôle mental des géants de la tech laissent à penser que cette pratique est une arnaque. Par exemple, avec le recours aux traits de personnalité des « cinq grands » comme principal moyen d’influencer les gens, même si cette théorie des cinq grands n’est étayée par aucune étude à grande échelle évaluée par des pairs, et qu’elle est surtout l’apanage des baratineurs en marketing et des psychologues pop.

Le matériel promotionnel des géants de la tech prétend aussi que leurs algorithmes peuvent effectuer avec précision une « analyse des sentiments » ou détecter l’humeur des gens à partir de leurs « micro-expressions », mais il s’agit là d’affirmations marketing et non scientifiques. Ces méthodes n’ont pas été testées par des scientifiques indépendants, et lorsqu’elles l’ont été, elles se sont révélées très insuffisantes. Les micro-expressions sont particulièrement suspectes car il a été démontré que les entreprises spécialisées dans la formation de personnes pour les détecter sont moins performantes que si on laissait faire le hasard.

Les géants de la tech ont été si efficaces pour commercialiser leurs soi-disant super-pouvoirs qu’il est facile de croire qu’elles peuvent commercialiser tout le reste avec la même habileté, mais c’est une erreur de croire au baratin du marketing. Aucune déclaration d’une entreprise sur la qualité de ses produits n’est évidemment impartiale. Le fait que nous nous méfions de tout ce que disent les géants de la tech sur le traitement des données, le respect des lois sur la protection de la vie privée, etc. est tout à fait légitime, car pourquoi goberions-nous la littérature marketing comme s’il s’agissait d’une vérité d’évangile ? Les géants de la tech mentent sur à peu près tout, y compris sur le fonctionnement de leurs systèmes de persuasion alimentés par l’apprentissage automatique.

Ce scepticisme devrait imprégner toutes nos évaluations des géants de la tech et de leurs capacités supposées, y compris à la lecture attentive de leurs brevets. Zuboff confère à ces brevets une importance énorme, en soulignant que Google a revendiqué de nouvelles capacités de persuasion dans ses dépôts de brevets. Ces affirmations sont doublement suspectes : d’abord parce qu’elles sont très intéressées, et ensuite parce que le brevet lui-même est notoirement une invitation à l’exagération.

Les demandes de brevet prennent la forme d’une série de revendications et vont des plus étendues aux plus étroites. Un brevet typique commence par affirmer que ses auteurs ont inventé une méthode ou un système permettant de faire absolument tout ce qu’il est possible d’imaginer avec un outil ou un dispositif. Ensuite, il réduit cette revendication par étapes successives jusqu’à ce que nous arrivions à l’« invention » réelle qui est le véritable objet du brevet. L’espoir est que la personne qui passe en revue les demandes de brevets – qui est presque certainement surchargée de travail et sous-informée – ne verra pas que certaines (ou toutes) ces revendications sont ridicules, ou du moins suspectes, et qu’elle accordera des prétentions plus larges du brevet. Les brevets portant sur des choses non brevetables sont tout de même très utiles, car ils peuvent être utilisés contre des concurrents qui pourraient accorder une licence sur ce brevet ou se tenir à l’écart de ses revendications, plutôt que de subir le long et coûteux processus de contestation.

De plus, les brevets logiciels sont couramment accordés même si le déposant n’a aucune preuve qu’il peut faire ce que le brevet prétend. C’est-à-dire que vous pouvez breveter une « invention » que vous n’avez pas réellement faite et que vous ne savez pas comment faire.

Avec ces considérations en tête, il devient évident que le fait qu’un Géant de la tech ait breveté ce qu’il qualifie de rayon efficace de contrôle mental ne permet nullement de savoir si cette entreprise peut effectivement contrôler nos esprits.

Les géants de la tech collectent nos données pour de nombreuses raisons, y compris la diminution du rendement des stocks de données existants. Mais de nombreuses entreprises technologiques collectent également des données en raison d’une croyance exceptionnaliste erronée aux effets de réseau des données. Les effets de réseau se produisent lorsque chaque nouvel utilisateur d’un système augmente sa valeur. L’exemple classique est celui des télécopieurs [des fax NdT] : un seul télécopieur ne sert à rien, deux télécopieurs sont d’une utilité limitée, mais chaque nouveau télécopieur mis en service après le premier double le nombre de liaisons possibles de télécopie à télécopie.

Les données exploitées pour les systèmes prédictifs ne produisent pas nécessairement ces bénéfices. Pensez à Netflix : la valeur prédictive des données extraites d’un million d’utilisateurs anglophones de Netflix n’est guère améliorée par l’ajout des données de visualisation d’un utilisateur supplémentaire. La plupart des données que Netflix acquiert après ce premier échantillon minimum viable font double emploi avec des données existantes et ne produisent que des gains minimes. En attendant, le recyclage des modèles avec de nouvelles données devient plus cher à mesure que le nombre de points de données augmente, et les tâches manuelles comme l’étiquetage et la validation des données ne deviennent pas moins chères lorsqu’on augmente l’ordre de grandeur.

Les entreprises font tout le temps la course aux modes au détriment de leurs propres profits, surtout lorsque ces entreprises et leurs investisseurs ne sont pas motivés par la perspective de devenir rentables mais plutôt par celle d’être rachetés par un Géant de la tech ou d’être introduits en Bourse. Pour ces entreprises, cocher des cases à la mode comme « collecte autant de données que possible » pourrait permettre d’obtenir un meilleur retour sur investissement que « collecte une quantité de données adaptée à l’entreprise ».

C’est un autre dommage causé par l’exceptionnalisme technologique : la croyance selon laquelle davantage de données produit toujours plus de profits sous la forme de plus d’informations qui peuvent être traduites en de meilleurs rayons de contrôle mental. Cela pousse les entreprises à collecter et à conserver des données de manière excessive, au-delà de toute rationalité. Et comme les entreprises se comportent de manière irrationnelle, bon nombre d’entre elles vont faire faillite et devenir des navires fantômes dont les cales sont remplies de données qui peuvent nuire aux gens de multiples façons, mais dont personne n’est plus responsable. Même si les entreprises ne font pas faillite, les données qu’elles collectent sont maintenues en-deça de la sécurité minimale viable – juste assez de sécurité pour maintenir la viabilité de l’entreprise en attendant d’être rachetées par un Géant de la tech, un montant calculé pour ne pas dépenser un centime de trop pour la protection des données.

Comment les monopoles, et non le contrôle de la pensée, conduisent à la surveillance capitaliste : le cas de Snapchat

Pendant la première décennie de son existence, Facebook est entré en concurrence avec les réseaux sociaux de l’époque (Myspace, Orkut, etc) en se présentant comme l’alternative respectant de la vie privée. De fait, Facebook a justifié son jardin clos, qui permet aux utilisateurs d’y amener des données du Web, mais empêche les services tels que Google Search d’indexer et de mémoriser les pages Facebook, en tant que mesure de respect de la vie privée qui protège les utilisateurs des heureux gagnants de la bataille des réseaux sociaux comme Myspace.

En dépit des fréquentes promesses disant qu’il ne collecterait ou n’analyserait jamais les données de ses utilisateurs, Facebook a lancé à intervalles réguliers des initiatives exactement dans ce but, comme le sinistre Beacon tool, qui vous espionne lorsque vous surfez sur le Web puis ajoute vos activités sur le web à votre timeline publique, permettant à vos amis de surveiller vos habitudes de navigation. Beacon a suscité une révolte des utilisateurs. À chaque fois, Facebook a renoncé à ses actions de surveillance, mais jamais complètement ; inévitablement, le nouveau Facebook vous surveillera plus que l’ancien Facebook, mais moins que le Facebook intermédiaire qui suit le lancement d’un nouveau produit ou service.

Le rythme auquel Facebook a augmenté ses efforts de surveillance semble lié au climat compétitif autour de Facebook. Plus Facebook avait de concurrents, mieux il se comportait. À chaque fois qu’un concurrent majeur s’est effondré, le comportement de Facebook s’est notablement dégradé.

Dans le même temps, Facebook a racheté un nombre prodigieux d’entreprises, y compris une société du nom de Onavo. À l’origine, Onavo a créé une application mobile pour suivre l’évolution de la batterie. Mais les permissions que demandaient Onavo étaient telles que l’appli était capable de recueillir de façon très précise l’intégralité de ce que les utilisateurs font avec leurs téléphones, y compris quelles applis ils utilisent et comment.

Avec l’exemple d’Onavo, Facebook a découvert qu’il était en train de perdre des parts de marché au profit de Snapchat, une appli qui, comme Facebook une décennie plus tôt, se vend comme l’alternative qui respecte la vie privée par rapport au statu quo . À travers Onavo, Facebook a pu extraire des données des appareils des utilisateurs de Snapchat, que ce soient des utilisateurs actuels ou passés. Cela a poussé Facebook à racheter Instagram, dont certaines fonctionnalités sont concurrentes de Snapchat, et a permis à Facebook d’ajuster les fonctionnalités d’Instagram ainsi que son discours marketing dans le but d’éroder les gains de Snapchat et s’assurer que Facebook n’aurait pas à faire face aux pressions de la concurrence comme celles subies par le passé par Myspace et Orkut.

La manière dont Facebook a écrasé Snapchat révèle le lien entre le monopole et le capitalisme de surveillance. Facebook a combiné la surveillance avec une application laxiste des lois antitrust pour repérer de loin la menace de la concurrence par Snapchat et pour prendre des mesures décisives à son encontre. Le capitalisme de surveillance de Facebook lui a permis d’éviter la pression de la concurrence avec des tactiques anti-compétitives. Les utilisateurs de Facebook veulent toujours de la confidentialité, Facebook n’a pas utilisé la surveillance pour les convaincre du contraire, mais ils ne peuvent pas l’obtenir car la surveillance de Facebook lui permet de détruire tout espoir d’émergence d’un rival qui lui fait concurrence sur les fonctionnalités de confidentialité.

Un monopole sur vos amis

Un mouvement de décentralisation a essayé d’éroder la domination de Facebook et autres entreprises des géants de la tech en proposant des alternatives sur le Web indépendant (indieweb) : Mastodon en alternative à Twitter, Diaspora en alternative à Facebook, etc, mais ces efforts ont échoué à décoller.

Fondamentalement, chacun de ces services est paralysé par le même problème : tout utilisateur potentiel d’une alternative de Facebook ou Twitter doit convaincre tous ses amis de le suivre sur une alternative décentralisée pour pouvoir continuer à avoir les bénéfices d’un média social. Pour beaucoup d’entre nous, la seule raison pour laquelle nous avons un compte Facebook est parce que nos amis ont des comptes Facebook, et la raison pour laquelle ils ont des comptes Facebook est que nous avons des comptes Facebook.

Tout cela a contribué à faire de Facebook, et autres plateformes dominantes, des « zones de tir à vue » dans lesquelles aucun investisseur ne financera un nouveau venu.

Et pourtant, tous les géants d’aujourd’hui sont apparus malgré l’avantage bien ancré des entreprises qui existaient avant eux. Pour comprendre comment cela a été possible, il nous faut comprendre l’interopérabilité et l’interopérabilité antagoniste.

Le gros problème de nos espèces est la coordination.

L’« interopérabilité » est la capacité qu’ont deux technologies à fonctionner l’une avec l’autre : n’importe qui peut fabriquer un disque qui jouera sur tous les lecteurs de disques, n’importe qui peut fabriquer un filtre que vous pourrez installer sur la ventilation de votre cuisinière, n’importe qui peut fabriquer l’essence pour votre voiture, n’importe qui peut fabriquer un chargeur USB pour téléphone qui fonctionnera dans votre allume-cigare, n’importe qui peut fabriquer une ampoule qui marchera dans le culot de votre lampe, n’importe qui peut fabriquer un pain qui grillera dans votre grille-pain.

L’interopérabilité est souvent une source d’innovation au bénéfice du consommateur : Apple a fabriqué le premier ordinateur personnel viable commercialement, mais des millions de vendeurs de logiciels indépendants ont fait des programmes interopérables qui fonctionnaient sur l’Apple II Plus. La simple antenne pour les entrées analogiques à l’arrière des téléviseurs a d’abord permis aux opérateurs de câbles de se connecter directement aux télévisions, puis ont permis aux entreprises de consoles de jeux et ensuite aux ordinateurs personnels d’utiliser une télévision standard comme écran. Les prises téléphoniques RJ11 standardisées ont permis la production de téléphones par divers vendeurs avec divers formes, depuis le téléphone en forme de ballon de foot reçu en cadeau d’abonnement de Sports Illustrated, aux téléphones d’affaires avec haut-parleurs, mise en attente, et autres, jusqu’aux répondeurs et enfin les modems, ouvrant la voie à la révolution d’Internet.

On utilise souvent indifféremment « interopérabilité » et « standardisation », qui est le processus pendant lequel les fabricants et autres concernés négocient une liste de règles pour l’implémentation d’une technologie, comme les prises électriques de vos murs, le bus de données CAN utilisé par le système de votre voiture, ou les instructions HTML que votre navigateur internet interprète.

Mais l’interopérabilité ne nécessite pas la standardisation, en effet la standardisation émerge souvent du chaos de mesures d’interopérabilité ad hoc. L’inventeur du chargeur USB dans l’allume-cigare n’a pas eu besoin d’avoir la permission des fabricants de voitures ou même des fabricants des pièces du tableau de bord. Les fabricants automobiles n’ont pas mis en place des contre-mesures pour empêcher l’utilisation de ces accessoires d’après-vente par leurs consommateurs, mais ils n’ont pas non plus fait en sorte de faciliter la vie des fabricants de chargeurs. Il s’agit d’une forme d’« interopérabilité neutre ».

Au-delà de l’interopérabilité neutre, il existe l’« interopérabilité antagoniste ». C’est quand un fabricant crée un produit qui interagit avec le produit d’un autre fabricant en dépit des objections du deuxième fabricant, et cela même si ça nécessite de contourner un système de sécurité conçu pour empêcher l’interopérabilité.

Le type d’interopérabilité antagoniste le plus usuel est sans doute les cartouches d’encre d’imprimantes par des fournisseurs tiers. Les fabricants d’imprimantes affirment qu’ils vendent les imprimantes en-dessous de leur coût et que leur seul moyen de récupérer les pertes est de se constituer une marge élevée sur les encres. Pour empêcher les propriétaires d’imprimantes d’acheter leurs cartouches ailleurs, les entreprises d’imprimantes appliquent une série de systèmes de sécurité anti-consommateurs qui détectent et rejettent les cartouches re-remplies ou par des tiers.

Les propriétaires d’imprimantes quant à eux défendent le point de vue que HP et Epson et Brother ne sont pas des œuvres caritatives et que les consommateurs de leurs produits n’ont aucune obligation à les aider à survivre, et donc que si ces entreprises choisissent de vendre leurs produits à perte, il s’agit de leur choix stupide et à eux d’assumer les conséquences. De même, les compétiteurs qui fabriquent des cartouches ou les re-remplissent font remarquer qu’ils ne doivent rien aux entreprises d’imprimantes, et que le fait qu’ils érodent les marges de ces entreprises est le problème de celles-ci et non celui de leurs compétiteurs. Après tout, les entreprises d’imprimantes n’ont aucun scrupule à pousser un re-remplisseur à fermer boutique, donc pourquoi est-ce que les re-remplisseurs devraient se soucier de la bonne santé économique des entreprises d’imprimantes ?

L’interopérabilité antagoniste a joué un rôle hors normes dans l’histoire de l’industrie tech : depuis la création du « alt.* » dans l’architecture de Usenet (qui a commencé à l’encontre des souhaits des responsables de Usenet et qui s’est développé au point d’être plus important que tout le Usenet combiné) à la guerre des navigateurs (lorsque Netscape et Microsoft ont dépensé d’énormes ressources en ingénierie pour faire en sorte que leur navigateur soit incompatible avec les fonctionnalités spéciales et autres peccadilles de l’autre) à Facebook (dont le succès a entre autres été dû au fait qu’il a aidé ses nouveaux utilisateurs en leur permettant de rester en contact avec les amis qu’ils ont laissés sur Myspace parce que Facebook leur a fourni un outil pour s’emparer des messages en attente sur Myspace et les importer sur Facebook, créant en pratique un lecteur Myspace basé sur Facebook).

Aujourd’hui, la validation par le nombre est considérée comme un avantage inattaquable. Facebook est là où tous vos amis sont, donc personne ne peut fonder un concurrent à Facebook. Mais la compatibilité antagoniste retourne l’avantage concurrentiel : si vous êtes autorisés à concurrencer Facebook en proposant un outil qui importe les messages en attente sur Facebook de tous vos utilisateurs dans un environnement qui est compétitif sur des terrains que Facebook ne pourra jamais atteindre, comme l’élimination de la surveillance et des pubs, alors Facebook serait en désavantage majeur. Vous aurez rassemblé tous les potentiels ex-utilisateurs de Facebook sur un unique service facile à trouver. Vous les auriez éduqués sur la façon dont un service Facebook-like fonctionne et quels sont ses potentiels avantages, et vous aurez fourni un moyen simple aux utilisateurs mécontents de Facebook pour dire à leurs amis où ils peuvent trouver un meilleur traitement.

L’interopérabilité antagoniste a été la norme pendant un temps et une contribution clef à une scène tech dynamique et vibrante, mais à présent elle est coincée derrière une épaisse forêt de lois et règlements qui ajoutent un risque légal aux tactiques éprouvées de l’interopérabilité antagoniste. Ces nouvelles règles et les nouvelles interprétations des règles existantes signifient qu’un potentiel « interopérateur » antagoniste aura besoin d’échapper aux réclamations de droits d’auteurs, conditions de service, secret commercial, ingérence et brevets.

En l’absence d’un marché concurrentiel, les faiseurs de lois ont délégué des tâches lourdes et gouvernementales aux sociétés de Big Tech, telles que le filtrage automatique des contributions des utilisateurs pour la violation des droits d’auteur ou pour des contenus terroristes et extrémistes ou pour détecter et empêcher le harcèlement en temps réel ou encore pour contrôler l’accès au contenu sexuel.

Ces mesures ont fixé une taille minimale à partir de laquelle on peut faire du Big Tech, car seules les très grandes entreprises peuvent se permettre les filtres humains et automatiques nécessaires pour se charger de ces tâches.

Mais ce n’est pas la seule raison pour laquelle rendre les plateformes responsables du maintien de l’ordre parmi leurs utilisateurs mine la compétition. Une plateforme qui est chargée de contrôler le comportement de ses utilisateurs doit empêcher de nombreuses techniques vitales à l’interopérabilité antagoniste de peur qu’elles ne contreviennent à ses mesures de contrôle. Par exemple si quelqu’un utilisant un remplaçant de Twitter tel que Mastodon est capable de poster des messages sur Twitter et de lire des messages hors de Twitter, il pourrait éviter les systèmes automatiques qui détectent et empêchent le harcèlement (tels que les systèmes qui utilisent le timing des messages ou des règles basées sur les IP pour estimer si quelqu’un est un harceleur).

Au point que nous sommes prêts à laisser les géants de la tech s’autocontrôler, plutôt que de faire en sorte que leur industrie soit suffisamment limitée pour que les utilisateurs puissent quitter les mauvaises plateformes pour des meilleures et suffisamment petites pour qu’une réglementation qui ferait fermer une plateforme ne détruirait pas l’accès aux communautés et données de milliards d’utilisateurs, nous avons fait en sorte que les géants de la tech soient en mesure de bloquer leurs concurrents et qu’il leur soit plus facile de demander un encadrement légal des outils pour bannir et punir les tentatives à l’interopérabilité antagoniste.

En définitive, nous pouvons essayer de réparer les géants de la tech en les rendant responsables pour les actes malfaisants de ses utilisateurs, ou bien nous pouvons essayer de réparer Internet en réduisant la taille de géants. Mais nous ne pouvons pas faire les deux. Pour pouvoir remplacer les produits des géants d’aujourd’hui, nous avons besoin d’éclaircir la forêt légale qui empêche l’interopérabilité antagoniste de façon à ce que les produits de demain, agiles, personnels, de petite échelle, puissent se fédérer sur les géants tels que Facebook, permettant aux utilisateurs qui sont partis à continuer à communiquer avec les utilisateurs qui ne sont pas encore partis, envoyant des vignes au-dessus du mur du jardin de Facebook afin que les utilisateurs piégés de Facebook puissent s’en servir afin de grimper aux murs et de s’enfuir, accédant au Web ouvert et global.

(à suivre)




Détruire le capitalisme de surveillance – 4

Voici la quatrième  partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les trois premiers épisodes en PDF : doctorow-1-2-3).

Traduction Framalang : Claire, Fabrice, goofy,  jums, mo, ngfchristian, retrodev, tykayn

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Les monopoles n’engendrent pas la surveillance, mais ils l’encouragent certainement

par Cory Doctorow

Les industries compétitives sont fragmentées dans le sens où elles sont composées d’entreprises qui s’entre-déchirent en permanence et qui rognent sur leurs marges respectives lorsqu’elles proposent des offres à leurs meilleurs clients. Ce qui leur laisse moins d’investissement afin d’obtenir des règles plus favorables. Cette situation rend aussi plus difficile la mutualisation des ressources de chaque entreprise au profit de l’industrie toute entière.

La rencontre entre la surveillance et l’apprentissage machine est censé être l’aboutissement d’une crise existentielle, un moment particulier pour l’espèce humaine où notre libre arbitre serait très proche de l’extinction pure et simple. Même si je reste sceptique quant à cette hypothèse, je pense tout de même que la technologie pose de réelles menaces existentielles à notre société (et aussi plus généralement pour notre espèce entière).
Et ces menaces viennent des monopoles.

L’une des conséquences de l’emprise de la technologie sur la réglementation est qu’elle peut rejeter la responsabilité de mauvaises décisions en matière de sécurité sur ses clients et sur la société en général. Il est tout à fait banal dans le domaine de la technologie que les entreprises dissimulent les mécanismes de leurs produits, qu’elles en rendent le fonctionnement difficile à comprendre et qu’elles menacent les chercheurs en sécurité indépendants qui auditent ces objets.

L’informatique est le seul domaine dans lequel ces pratiques existent : personne ne construit un pont ou un hôpital en gardant secret la composition de l’acier ou les équations utilisées pour calculer les contraintes de charge. C’est une pratique assez bizarre qui conduit, encore et toujours, à des défauts de sécurité grotesques à une échelle tout aussi grotesque, des pans entiers de dispositifs étant révélés comme vulnérables bien après qu’ils ont été déployées et placés dans des endroits sensibles.

Le pouvoir monopolistique qui tient à distance toute conséquence significative de ces violations, signifie que les entreprises technologiques continuent à créer des produits exécrables, mal conçus et qui finissent par être intégrés à nos vies, par posséder nos données, et être connectés à notre monde physique. Pendant des années, Boeing s’est battu contre les conséquences d’une série de mauvaises décisions technologiques qui ont fait de sa flotte de 737 un paria mondial, c’est l’un des rares cas où des décisions technologiques de piètre qualité ont été sérieusement sanctionnées par le marché.

Ces mauvaises décisions en matière de sécurité sont encore aggravées par l’utilisation de verrous de copyright pour faire appliquer des décisions commerciales à l’encontre des consommateurs. Souvenez-vous que ces verrous sont devenus un moyen incontournable de façonner le comportement des consommateurs, qui rend techniquement impossible l’utilisation de cartouches d »encre compatibles, d’insuline, d’applications mobiles ou de dépôts de services tiers en relation avec vos biens acquis légalement.

Rappelez-vous également que ces verrous sont soutenus par une législation (telle que la section 1201 du DMCA ou l’article 6 de la directive européenne sur le droit d’auteur de 2001) qui interdit de les altérer (de les « contourner »), et que ces lois ont été utilisées pour menacer les chercheurs en sécurité qui divulguent des vulnérabilités sans la permission des fabricants.

Cela revient à un véritable veto des fabricants sur les alertes de sécurité et les critiques. Bien que cela soit loin de l’intention législative du DMCA (et de son équivalent dans d’autres juridictions dans le monde), le Congrès n’est pas intervenu pour clarifier la loi et ne le fera jamais, car cela irait à l’encontre des intérêts des puissantes entreprises dont le lobbying est imparable.

Les verrous de copyright sont une arme à double tranchant. D’abord parce qu’ils provoquent de mauvaises décisions en matière de sécurité qui ne pourront pas être librement étudiées ni discutées. Si les marchés sont censés être des machines à agréger l’information (et si les rayons de contrôle mental fictif du capitalisme de surveillance en font un « capitalisme voyou » parce qu’il refuse aux consommateurs le pouvoir de prendre des décisions), alors un programme qui impose légalement l’ignorance sur les risques des produits rend le monopole encore plus « voyou » que les campagnes d’influence du capitalisme de surveillance.

Et contrairement aux rayons de contrôle mental, ce silence imposé sur la sécurité est un problème brûlant et documenté qui constitue une menace existentielle pour notre civilisation et peut-être même pour notre espèce. La prolifération des dispositifs non sécurisés – en particulier ceux qui nous espionnent et surtout lorsque ces dispositifs peuvent également manipuler le monde physique, par exemple, qui tourne le volant de votre voiture ou en actionnant un disjoncteur dans une centrale électrique – est une forme de dette technique.
En conception logicielle, la « dette technique » fait référence à des décisions anciennes et bien calculées qui, avec le recul, s’avèrent être mauvaises. Par exemple, un développeur de longue date a peut-être décidé d’intégrer un protocole réseau exigé par un fournisseur, qui a depuis cessé de le prendre en charge.

Mais tout dans le produit repose toujours sur ce protocole dépassé. Donc, à chaque révision, des équipes doivent travailler autour de ce noyau obsolète, en y ajoutant des couches de compatibilité, en l’entourant de contrôles de sécurité qui tentent de renforcer ses défenses, etc. Ces mesures de fortune aggravent la dette technique, car chaque révision ultérieure doit en tenir compte, tout comme les intérêts d’un crédit revolving. Et comme dans le cas d’un prêt à risque, les intérêts augmentent plus vite que vous ne pouvez espérer les rembourser : l’équipe en charge du produit doit consacrer tellement d’énergie au maintien de ce système complexe et fragile qu’il ne lui reste plus de temps pour remanier le produit de fond en comble et « rembourser la dette » une fois pour toutes.

En général, la dette technique entraîne une faillite technologique : le produit devient si fragile et instable qu’il finit par échouer de manière catastrophique. Pensez aux systèmes bancaires et comptables désuets basés sur du COBOL qui se sont effondrés au début de la pandémie lorsque les demandes d’allocations chômage se sont multipliées. Parfois, cela met fin au produit, parfois, cela entraîne l’entreprise dans sa chute. Être pris en défaut de paiement d’une dette technique est effrayant et traumatisant, tout comme lorsque l’on perd sa maison pour cause de faillite.
Mais la dette technique créée par les verrous de copyright n’est pas individuelle, elle est systémique. Chacun dans le monde est exposé à ce surendettement, comme ce fut le cas lors de la crise financière de 2008. Lorsque cette dette arrivera à échéance – lorsque nous serons confrontés à des violations de sécurité en cascade qui menacent le transport et la logistique mondiales, l’approvisionnement alimentaire, les processus de production pharmaceutique, les communications d’urgence et autres systèmes essentiels qui accumulent de la dette technique en partie due à la présence de verrous de copyright délibérément non sécurisés et délibérément non vérifiables – elle constituera en effet un risque existentiel.

Vie privée et monopole

De nombreuses entreprises technologiques sont prisonnières d’une orthodoxie : si elles recueillent assez de données sur suffisamment de nos activités, tout devient possible – le contrôle total des esprits et des profits infinis. C’est une hypothèse invérifiable : en effet, si des données permettent à une entreprise technologique d’améliorer ne serait-ce que légèrement ses prévisions de comportements, alors elle déclarera avoir fait le premier pas vers la domination mondiale sans retour en arrière possible. Si une entreprise ne parvient pas à améliorer la collecte et l’analyse des données, alors elle déclarera que le succès est juste au coin de la rue et qu’il sera possible de l’atteindre une fois qu’elle disposera de nouvelles données.

La technologie de surveillance est loin d’être la première industrie à adopter une croyance absurde et égoïste qui nuit au reste du monde, et elle n’est pas la première industrie à profiter largement d’une telle illusion. Bien avant que les gestionnaires de fonds spéculatifs ne prétendent (à tort) pouvoir battre le S&P 500 (l’équivalent du CAC40 américain), de nombreuses autres industries « respectables » se sont révélées être de véritables charlatans. Des fabricants de suppositoires au radium (si, si, ça existe!) aux cruels sociopathes qui prétendaient pouvoir « guérir » les homosexuels, l’histoire est jonchée de titans industriels autrefois respectables qui ont mal fini.

Cela ne veut pas dire que l’on ne peut rien reprocher aux Géants de la tech et à leurs addictions idéologiques aux données. Si les avantages de la surveillance sont généralement surestimés, ses inconvénients sont, à tout le moins, sous-estimés.

Cette situation est très ironique. La croyance que le capitalisme de surveillance est un « capitalisme voyou » s’appuie sur l’hypothèse que les marchés ne toléreraient pas des entreprises engluées dans de fausses croyances. Une compagnie pétrolière qui se trompe souvent sur l’endroit où se trouve le pétrole finira par faire faillite en creusant tout le temps des puits déjà secs.

Mais les monopoles peuvent faire des choses graves pendant longtemps avant d’en payer le prix. Imaginez comment la concentration dans le secteur financier a permis à la crise des subprimes de s’envenimer alors que les agences de notation, les régulateurs, les investisseurs et les critiques sont tous tombés sous l’emprise d’une fausse croyance selon laquelle les mathématiques complexes pourraient construire des instruments de dette « entièrement couverts », qui ne pourraient pas faire défaut. Une petite banque qui se livrerait à ce genre de méfaits ferait tout simplement faillite au lieu d’échapper à une crise inévitable, à moins qu’elle ait pris une telle ampleur qu’elle l’aurait évitée. Mais les grandes banques ont pu continuer à attirer les investisseurs, et lorsqu’elles ont finalement réussi à s’en sortir, les gouvernements du monde entier les ont renflouées. Les pires auteurs de la crise des subprimes sont plus importants qu’ils ne l’étaient en 2008, rapportant plus de profits et payant leurs dirigeants des sommes encore plus importantes.

Les grandes entreprises technologiques sont en mesure de surveiller non seulement parce qu’elles sont technologiques, mais aussi parce qu’elles sont énormes. La raison pour laquelle tous les éditeurs de sites web intègrent le bouton «J’aime » de Facebook, est que Facebook domine les recommandations des médias sociaux sur Internet – et chacun de ces boutons « J’aime » espionne tous les utilisateurs qui visitent sur une page qui les contient (voir aussi : intégration de Google Analytics, boutons Twitter, etc.).

Si les gouvernements du monde entier ont tardé à mettre en place des sanctions significatives pour atteintes à la vie privée, c’est parce que la concentration des grandes entreprises technologiques génère d’énormes profits qui peuvent être utilisés pour faire pression contre ces sanctions.
La raison pour laquelle les ingénieurs les plus intelligents du monde veulent travailler pour les Géants de la tech est que ces derniers se taillent la part du lion des emplois dans l’industrie technologique.

Si les gens se sont horrifiés des pratiques de traitement des données de Facebook, Google et Amazon mais qu’ils continuent malgré tout d’utiliser ces services, c’est parce que tous leurs amis sont sur Facebook, que Google domine la recherche et qu’Amazon a mis tous les commerçants locaux en faillite.

Des marchés concurrentiels affaibliraient le pouvoir de lobbying des entreprises en réduisant leurs profits et en les opposant les unes aux autres à l’intérieur d’une réglementation commune. Cela donnerait aux clients d’autres endroits où aller pour obtenir leurs services en ligne. Les entreprises seraient alors suffisamment petites pour réglementer et ouvrir la voie à des sanctions significatives en cas d’infraction. Cela permettrait aux ingénieurs, dont les idées remettent en cause l’orthodoxie de la surveillance, de lever des capitaux pour concurrencer les opérateurs historiques. Cela donnerait aux éditeurs de sites web de multiples moyens d’atteindre leur public et de faire valoir leurs arguments contre l’intégration de Facebook, Google et Twitter.

En d’autres termes, si la surveillance ne provoque pas de monopoles, les monopoles encouragent certainement la surveillance…

Ronald Reagan, pionnier du monopole technologique

L’exceptionnalisme technologique est un péché, qu’il soit pratiqué par les partisans aveugles de la technologie ou par ses détracteurs. Ces deux camps sont enclins à expliquer la concentration monopolistique en invoquant certaines caractéristiques particulières de l’industrie technologique, comme les effets de réseau ou l’avantage du premier arrivé. La seule différence réelle entre ces deux groupes est que les apologistes de la technologie disent que le monopole est inévitable et que nous devrions donc laisser la technologie s’en tirer avec ses abus tandis que les régulateurs de la concurrence aux États-Unis et dans l’UE disent que le monopole est inévitable et que nous devrions donc punir la technologie pour ses abus mais sans essayer de briser les monopoles.

Pour comprendre comment la technologie est devenue aussi monopolistique, il est utile de se pencher sur l’aube de l’industrie technologique grand public : 1979, l’année où l’Apple II Plus a été lancé et est devenu le premier ordinateur domestique à succès. C’est également l’année où Ronald Reagan a fait campagne pour la présidentielle de 1980, qu’il a remportée, ce qui a entraîné un changement radical dans la manière dont les problèmes de concurrence sont traités en Amérique. Toute une cohorte d’hommes politiques de Reagan – dont Margaret Thatcher au Royaume-Uni, Brian Mulroney au Canada, Helmut Kohl en Allemagne et Augusto Pinochet au Chili – a ensuite procédé à des réformes similaires qui se sont finalement répandues dans le monde entier.

L’histoire de la lutte antitrust a commencé près d’un siècle avant tout cela avec des lois comme la loi Sherman, qui ciblait les monopoles au motif qu’ils étaient mauvais en soi – écrasant les concurrents, créant des « déséconomies d’échelle » (lorsqu’une entreprise est si grande que ses parties constitutives vont mal et qu’elle semble impuissante à résoudre les problèmes), et assujettissant leurs régulateurs à un point tel qu’ils ne peuvent s’en tirer sans une foule de difficultés.

Puis vint un affabulateur du nom de Robert Bork, un ancien avocat général que Reagan avait nommé à la puissante Cour d’appel américaine pour le district de Columbia et qui avait inventé de toutes pièces une histoire législative alternative de la loi Sherman et des lois suivantes. Bork a soutenu que ces lois n’ont jamais visé les monopoles (malgré de nombreuses preuves du contraire, y compris les discours retranscrits des auteurs des de ces lois) mais qu’elles visaient plutôt à prévenir les « préjudices aux consommateurs » – sous la forme de prix plus élevés.
Bork était un hurluberlu, certes, mais les riches aimaient vraiment ses idées. Les monopoles sont un excellent moyen de rendre les riches plus riches en leur permettant de recevoir des « rentes de monopole » (c’est-à-dire des profits plus importants) et d’assujettir les régulateurs, ce qui conduit à un cadre réglementaire plus faible et plus favorable, avec moins de protections pour les clients, les fournisseurs, l’environnement et les travailleurs.

Les théories de Bork étaient particulièrement satisfaisantes pour les mêmes personnalités influentes qui soutenaient Reagan. Le ministère de la Justice et d’autres agences gouvernementales de l’administration Reagan ont commencé à intégrer la doctrine antitrust de Bork dans leurs décisions d’application (Reagan a même proposé à Bork de siéger à la Cour suprême, mais Bork a été tellement mauvais à l’audience de confirmation du Sénat que, 40 ans plus tard, les experts de Washington utilisent le terme « borked » pour qualifier toute performance politique catastrophique).

Peu à peu, les théories de Bork se sont répandues, et leurs partisans ont commencé à infiltrer l’enseignement du droit, allant même jusqu’à organiser des séjours tous frais payés, où des membres de la magistrature étaient invités à de copieux repas, à participer à des activités de plein air et à assister à des séminaires où ils étaient endoctrinés contre la théorie antitrust et les dommages qu’elle cause aux consommateurs. Plus les théories de Bork s’imposaient, plus les monopolistes gagnaient de l’argent – et plus ils disposaient d’un capital excédentaire pour faire pression en faveur de campagnes d’influence antitrust à la Bork.

L’histoire des théories antitrust de Bork est un très bon exemple du type de retournements d’opinion publique obtenus secrètement et contre lesquels Zuboff nous met en garde, où les idées marginales deviennent peu à peu l’orthodoxie dominante. Mais Bork n’a pas changé le monde du jour au lendemain. Il a été très endurant, pendant plus d’une génération, et il a bénéficié d’un climat favorable parce que les forces qui ont soutenu les théories antitrust oligarchiques ont également soutenu de nombreux autres changements oligarchiques dans l’opinion publique. Par exemple, l’idée que la fiscalité est un vol, que la richesse est un signe de vertu, etc. – toutes ces théories se sont imbriquées pour former une idéologie cohérente qui a élevé l’inégalité au rang de vertu.

Aujourd’hui, beaucoup craignent que l’apprentissage machine permette au capitalisme de surveillance de vendre « Bork-as-a-Service », à la vitesse de l’Internet, afin qu’on puisse demander à une société d’apprentissage machine de provoquer des retournements rapides de l’opinion publique sans avoir besoin de capitaux pour soutenir un projet multiforme et multigénérationnel mené aux niveaux local, étatique, national et mondial, dans les domaines des affaires, du droit et de la philosophie. Je ne crois pas qu’un tel projet soit réalisable, bien que je sois d’accord avec le fait que c’est essentiellement ce que les plateformes prétendent vendre. Elles mentent tout simplement à ce sujet. Les (entreprises de la) Big Tech mentent tout le temps, y compris dans leur documentation commerciale.

L’idée que la technologie forme des « monopoles naturels » (des monopoles qui sont le résultat inévitable des réalités d’une industrie, comme les monopoles qui reviennent à la première entreprise à exploiter des lignes téléphoniques longue distance ou des lignes ferroviaires) est démentie par la propre histoire de la technologie : en l’absence de tactiques anticoncurrentielles, Google a réussi à détrôner AltaVista et Yahoo, et Facebook a réussi à se débarrasser de Myspace. La collecte de montagnes de données présente certains avantages, mais ces montagnes de données ont également des inconvénients : responsabilité (en raison de fuites), rendements décroissants (en raison d’anciennes données) et inertie institutionnelle (les grandes entreprises, comme la science, progressent en liquidant les autres à mesure).

En effet, la naissance du Web a vu l’extinction en masse des technologies propriétaires géantes et très rentables qui disposaient de capitaux, d’effets de réseau, de murs et de douves autour de leurs entreprises. Le Web a montré que lorsqu’une nouvelle industrie est construite autour d’un protocole, plutôt que d’un produit, la puissance combinée de tous ceux qui utilisent le protocole pour atteindre leurs clients, utilisateurs ou communautés, dépasse même les produits les plus massivement diffusés. CompuServe, AOL, MSN et une foule d’autres jardins clos propriétaires ont appris cette leçon à la dure : chacun croyait pouvoir rester séparé du Web, offrant une « curation » et une garantie de cohérence et de qualité au lieu du chaos d’un système ouvert. Chacun a eu tort et a fini par être absorbé dans le Web public.

Oui, la technologie est fortement monopolisée et elle est maintenant étroitement associée à la concentration de l’industrie, mais c’est davantage lié à une question de temps qu’à des tendances intrinsèquement monopolistiques. La technologie est née au moment où l’application de la législation antitrust était démantelée, et la technologie est tombée exactement dans les mêmes travers contre lesquels l’antitrust était censé se prémunir. En première approximation, il est raisonnable de supposer que les monopoles de Tech sont le résultat d’un manque d’action anti-monopole et non des caractéristiques uniques tant vantées de Tech, telles que les effets de réseau, l’avantage du premier arrivé, etc.

À l’appui de cette théorie, je propose de considérer la concentration que tous les autres secteurs ont connue au cours de la même période. De la lutte professionnelle aux biens de consommation emballés, en passant par le crédit-bail immobilier commercial, les banques, le fret maritime, le pétrole, les labels discographiques, la presse écrite et les parcs d’attractions, tous les secteurs ont connu un mouvement de concentration massif. Il n’y a pas d’effets de réseau évidents ni d’avantage de premier arrivé dans ces secteurs. Cependant, dans tous les cas, ils ont atteint leur statut de concentration grâce à des tactiques qui étaient interdites avant le triomphe de Bork : fusion avec des concurrents majeurs, rachat de nouveaux venus innovants sur le marché, intégration horizontale et verticale, et une série de tactiques anticoncurrentielles qui étaient autrefois illégales mais ne le sont plus.

Encore une fois : lorsque vous modifiez les lois destinées à empêcher les monopoles, puis que les monopoles se forment exactement comme la loi était censée les empêcher, il est raisonnable de supposer que ces faits sont liés. La concentration de Tech peut être facilement expliquée sans avoir recours aux théories radicales des effets de réseau – mais seulement si vous êtes prêt à accuser les marchés non réglementés de tendre vers le monopole. Tout comme un fumeur de longue date peut vous fournir une foule de raisons selon lesquelles ce n’est pas son tabagisme qui a provoqué son cancer (« Ce sont les toxines environnementales »), les vrais partisans des marchés non réglementés ont toute une série d’explications peu convaincantes pour prétendre que le monopole de la technologie ne modifie pas le capitalisme.

Conduire avec les essuie-glaces

Cela fait quarante ans que le projet de Bork pour réhabiliter les monopoles s’est réalisé, soit une génération et demie, c’est à dire suffisamment de temps pour qu’une idée commune puisse devenir farfelue ou l’inverse. Avant les années 40, les Américains aisés habillaient leurs petits garçons en rose alors que les filles portaient du bleu (une couleur « fragile et délicate »). Bien que les couleurs genrées soient totalement arbitraires, beaucoup découvriront cette information avec étonnement et trouveront difficile d’imaginer un temps où le rose suggérait la virilité.

Après quarante ans à ignorer scrupuleusement les mesures antitrust et leur mise en application, il n’est pas surprenant que nous ayons presque tous oublié que les lois antitrust existent, que la croissance à travers les fusions et les acquisitions était largement interdite par la loi, et que les stratégies d’isolation d’un marché, comme par l’intégration verticale, pouvait conduire une entreprise au tribunal.

L’antitrust, c’est le volant de cette voiture qu’est la société de marché, l’outil principal qui permet de contrôler la trajectoire de ces prétendants au titre de maîtres de l’univers. Mais Bork et ses amis nous ont arraché ce volant des mains il y a quarante ans. Puisque la voiture continue d’avancer, nous appuyons aussi fort que possible sur toutes les autres commandes de la voiture, de même que nous ouvrons et fermons les portes, montons et descendons les vitres dans l’espoir qu’une de ces commandes puisse nous permettre de choisir notre direction et de reprendre le contrôle avant de foncer dans le décor.

Ça ressemble à un scénario de science-fiction des années 60 qui deviendrait réalité : voyageant à travers les étoiles, des humains sont coincés dans un « vaisseau générationnel » autrefois piloté par leurs ancêtres, et maintenant, après une grande catastrophe, l’équipage a complètement oublié qu’il est dans un vaisseau et ne se souvient pas où est la salle de contrôle. À la dérive, le vaisseau court à sa perte, et, à moins que nous puissions reprendre le contrôle et corriger le cap en urgence, nous allons tout fonçons droit vers une mort ardente dans le cœur d’un soleil.

La surveillance a toujours son importance

Rien de tout cela ne doit minimiser les problèmes liés à la surveillance. La surveillance est importante, et les Géants de la tech qui l’utilisent font peser un véritable risque existentiel sur notre espèce, mais ce n’est pas parce que la surveillance et l’apprentissage machine nous subtilisent notre libre arbitre.

La surveillance est devenue bien plus efficace avec les Géants de la tech. En 1989, la Stasi — la police secrète est-allemande — avait l’intégralité du pays sous surveillance, un projet titanesque qui recrutait une personne sur 60 en tant qu’informateur ou comme agent de renseignement.

Aujourd’hui, nous savons que la NSA espionne une partie significative de la population mondiale, et le ratio entre agents de renseignement et population surveillée est plutôt de l’ordre de 1 pour 10 000 (ce chiffre est probablement sous-estimé puisqu’il suppose que tous les Américains détenant un niveau de confidentialité top secret travaillent pour la NSA — en fait on ne sait pas combien de personnes sont autorisées à espionner pour le compte de la NSA, mais ce n’est certainement pas toutes les personnes classées top secret).

Comment ce ratio de citoyens surveillés a-t-il pu exploser de 1/60 à 1/10 000 en moins de trente ans ? C’est bien grâce aux Géants de la tech. Nos appareils et leurs services collectent plus de données que ce que la NSA collecte pour ses propres projets de surveillance. Nous achetons ces appareils, nous nous connectons à leurs services, puis nous accomplissons laborieusement les tâches nécessaires pour insérer des données sur nous, notre vie, nos opinions et nos préférences. Cette surveillance de masse s’est révélée complètement inutile dans la lutte contre le terrorisme : la NSA évoque un seul et unique cas, dans lequel elle a utilisé un programme de collection de données pour faire échouer une tentative de transfert de fond de quelques milliers de dollars d’un citoyen américain vers un groupe terroriste basé à l’étranger. Les raisons de cette inefficacité déconcertante sont les mêmes que pour l’échec du ciblage publicitaire par les entreprises de surveillance commerciale : les personnes qui commettent des actes terroristes, tout comme celles qui achètent un frigo, se font très rares. Si vous voulez détecter un phénomène dont la probabilité de base est d’un sur un million avec un outil dont la précision n’est que de 99 %, chaque résultat juste apparaîtra au prix de 9 999 faux positifs.

Essayons de le formuler autrement : si une personne sur un million est terroriste, alors nous aurons seulement un terroriste dans un échantillon d’un million de personnes. Si votre test de détecteur à terroristes est précis à 99 %, il identifiera 10 000 terroristes dans votre échantillon d’un million de personnes (1 % d’un million = 10 000). Pour un résultat juste, vous vous retrouvez avec 9 999 faux positifs.

En réalité, la précision algorithmique de la détection de terroriste est bien inférieure à 99 %, tout comme pour les publicités de frigo. La différence, c’est qu’être accusé à tort d’être un potentiel acheteur de frigo est une nuisance somme toute assez faible, alors qu’être accusé à tort de planifier un attentat terroriste peut détruire votre vie et celle de toutes les personnes que vous aimez.

L’État ne peut surveiller massivement que parce que le capitalisme de surveillance et son très faible rendement existent, ce qui demande un flux constant de données personnelles pour pouvoir rester viable. L’échec majeur du capitalisme de surveillance vient des publicités mal ciblées, tandis que celui de la surveillance étatique vient des violations éhontées des Droits de l’humain, qui ont tendance à dériver vers du totalitarisme.

La surveillance de l’État n’est pas un simple parasite des Géants de la tech, qui pomperait les données sans rien accorder en retour. En réalité, ils sont plutôt en symbiose : les Géants pompent nos données pour le compte des agences de renseignement, et ces dernières s’assurent que le pouvoir politique ne restreint pas trop sévèrement les activités des Géants de la tech jusqu’à devenir inutile aux besoins du renseignement. Il n’y a aucune distinction claire entre la surveillance d’État et le capitalisme de surveillance, ils sont tous deux co-dépendants.

Pour comprendre comment tout cela fonctionne aujourd’hui, pas besoin de regarder plus loin que l’outil de surveillance d’Amazon, la sonnette Ring et son application associée Neighbors. Ring — un produit acheté et non développé par Amazon — est une sonnette munie d’une caméra qui diffuse les images de l’entrée devant votre porte sur votre téléphone. L’application Neighbors vous permet de mettre en place un réseau de surveillance à l’échelle de votre quartier avec les autres détenteurs de sonnette Ring autour de chez vous, avec lesquels vous pouvez partager des vidéos de « personnes suspectes ». Si vous pensez que ce système est le meilleur moyen pour permettre aux commères racistes de suspecter toute personne de couleur qui se balade dans le quartier, vous avez raison. Ring est devenu de facto, le bras officieux de la police sans s’embêter avec ces satanées lois et règlements.

À l’été 2019, une série de demande de documents publics a révélé qu’Amazon a passé des accords confidentiels avec plus de 400 services de police locaux au travers desquelles ces agences font la promotion de Ring and Neighbors en échange de l’accès à des vidéos filmées par les visiophones Ring. En théorie, la police devrait réclamer ces vidéos par l’intermédiaire d’Amazon (et des documents internes ont révélé qu’Amazon consacre des ressources non-négligeables pour former les policiers à formuler des histoires convaincantes dans ce but), mais dans la pratique, quand un client Ring refuse de transmettre ses vidéos à la police, Amazon n’exige de la police qu’une simple requête formelle à adresser à l’entreprise, ce qu’elle lui remet alors.

Ring et les forces de police ont trouvé de nombreuses façons de mêler leurs activités . Ring passe des accords secrets pour avoir un accès en temps réel aux appels d’urgence (le 911) pour ensuite diffuser à ses utilisateurs les procès-verbaux de certaines infractions, qui servent aussi à convaincre n’importe quelle personne qui envisage d’installer un portier de surveillance mais qui ne sait pas vraiment si son quartier est suffisamment dangereux pour que ça en vaille le coup.

Plus les flics vantent les mérites du réseau de surveillance capitaliste Ring, plus l’État dispose de capacités de surveillance. Les flics qui s’appuient sur des entités privées pour faire respecter la loi s’opposent ensuite à toute régulation du déploiement de cette technologie, tandis que les entreprises leur rendent la pareille en faisant pression contre les règles qui réclament une surveillance publique de la technologie de surveillance policière. Plus les flics s’appuient sur Ring and Neighbors, plus il sera difficile d’adopter des lois pour les freiner. Moins il y aura de lois contre eux, plus les flics se reposeront sur ces technologies.




La dégooglisation de l’éditeur

Il y a quelques mois, avant que la covid19 ne vienne chambouler notre quotidien, Angie faisait le constat que nous n’avions finalement que très peu documenté sur ce blog les démarches de passage à des outils libres réalisées au sein des organisations. Celles-ci sont pourtant nombreuses à s’être questionnées et à avoir entamé une « degooglisation ». Il nous a semblé pertinent de les interviewer pour comprendre pourquoi et comment elles se sont lancées dans cette aventure. Ce retour d’expérience est, pour Framasoft, l’occasion de prouver que c’est possible, sans ignorer les difficultés et les freins rencontrés, les écueils et erreurs à ne pas reproduire, etc. Peut-être ces quelques témoignages parviendront-ils à vous convaincre de passer au libre au sein de votre structure et à la libérer des outils des géants du Web ?

La maison d’édition Pourpenser a attiré notre attention sur Mastodon avec ses prises de position libristes. En discutant un peu nous avons compris qu’elle a joint le geste à la parole en faisant évoluer ses outils informatiques. Ça n’est pas si fréquent, une entreprise qui se dégooglise. Nous lui avons demandé un retour d’expérience.

N’hésitez pas à consulter les autres articles de cette série consacrée à l’autonomisation numérique des organisations.

Bonjour, peux-tu te présenter brièvement ? Qui es-tu ? Quel est ton parcours ?

Albert, co-fondateur des éditions Pourpenser avec ma sœur Aline en 2002.

Petit je voulais être garde forestier ou cuisinier… autant dire que j’ai raté ma vocation 🙂 (même si j’adore toujours cuisiner).

En 1987 j’avais un voisin de palier qui travaillait chez Oracle. Après les cours je passais du temps sur un ordinateur qu’il me mettait à disposition : j’ai donc commencé avec un ordi sur MS-DOS et des tables SQL.

1987, c’était aussi le tout début de la PAO. Il y avait un logiciel dont j’ai perdu le nom dans lequel je mettais le texte en forme avec des balises du genre <A>ça fait du gras</A>, je trouvais ça beaucoup plus intéressant que PageMaker et lorsque j’ai découvert Ventura Publisher qui mariait les deux mondes, j’ai été conquis.

Par la suite j’ai travaillé une dizaine d’années dans la localisation de jeux vidéo et de CD-ROM : nous traduisions le contenu et le ré-intégrions dans le code. Ma première connexion à internet remonte à 1994 avec FranceNet, j’avais 25 ans. Je découvrais ce monde avec de grands yeux en m’intéressant au logiciel libre, à la gouvernance d’internet (je me rappelle notamment de l’ISOC et des rencontres d’Autrans) et ça bousculait pas mal de schémas que je pouvais avoir.

2000 : naissance de ma fille aînée, je quitte Paris, je prends un grand break : envie de donner plus de sens à ma vie.

2002 : naissance de mon fils et création de la maison d’édition avec ma sœur.

 

Tu nous parles de ton entreprise ?

Dans sa forme, Pourpenser est une SARL classique. Régulièrement, nous nous posons la question de revoir les statuts mais ça demande du temps et de l’argent que nous préférons mettre ailleurs. Finalement, le mode SARL est plutôt souple et dans les faits, nous avons une organisation très… anarchique. Même si avec Aline nous sentons bien qu’en tant que fondateurs notre voix compte un peu plus, l’organisation est très horizontale et les projets partent souvent dans tous les sens.

L'équipe des Éditions Pourpenser

Que fait-elle ?

Dès le départ, nous avons eu à cœur de proposer des livres « avec du sens ». Aborder des questions existentielles, des questions de sociétés ou autour de notre relation au vivant. La notion d’empreinte nous interpelle régulièrement. Ne pas laisser d’empreinte est compliqué. Mais peut-être pouvons-nous choisir de laisser une empreinte aussi légère qu’utile ? La cohérence entre le contenu des livres que nous éditons et la manière dont nous produisons et amenons ces livres aux lecteurs et lectrices a toujours été centrale… même si rester cohérent est loin d’être toujours simple.

Nous aimons dire que notre métier n’est pas de faire des livres mais de transmettre du questionnement. Ceci dit, depuis 2002, nous avons édité environ 120 titres et une soixantaines d’auteur·e·s. Nous aimons éditer des contes, des romans, des BD, des jeux, des contes musicaux qui vont amener à une discussion, à une réflexion. Mais qui sait si un jour nous n’irons pas vers du spectacle vivant, de la chanson…

Combien êtes-vous ?

Normalement, nous sommes 8 personnes à travailler quasi-quotidiennement sur le catalogue de la maison et cela fait l’équivalent d’environ 5 temps plein, mais avec la crise actuelle nous avons nettement plus de temps libre… À côté de ça, nous accompagnons une soixantaine d’auteur·e·s, travaillons avec une centaine de points de vente en direct et avons quelques dizaines de milliers de contacts lecteurs.

 

Est-ce que tout le monde travaille au même endroit ?

L’équipe de huit est principalement située dans l’ouest, et l’une de nous est du côté de Troyes. Nous nous réunissons environ deux fois par an et utilisons donc beaucoup le réseau pour échanger. Le confinement de mars n’a fondamentalement rien changé à notre façon de travailler en interne. Par contre, les salons et les festivals ou nous aimons présenter les livres de la maison nous manquent et le fait que les librairies fonctionnent au ralenti ne nous aide pas.


Tu dirais que les membres de l’organisation sont plutôt à l’aise avec le numérique ? Pas du tout ? Ça dépend ? Kamoulox ?

Globalement, la culture « utilisateur du numérique » est bien présente dans toute l’équipe. Mais je dirais que nous sommes surtout deux : Dominique et moi, que la question de « jouer avec » amuse. Pour le reste de l’équipe, il faut que ça fonctionne et soit efficace sans prise de tête.

 

Avant de lancer cette démarche, vous utilisiez quels outils / services numériques ?

Lors de la création en 2002, j’ai mis en place un site que j’avais développé depuis un ensemble de scripts PHP liés à une base MySQL. Pour la gestion interne et la facturation, j’utilisais Filemaker (lorsque je ne suis pas sur Linux, je suis sur MacOS), et au fur et à mesure de l’arrivée des outils de Google (gmail, partage de documents…) nous les avons adoptés : c’était tellement puissant et pratique pour une mini structure éclatée comme la nôtre.

Par la suite, nous avons remplacé Filemaker par une solution ERP-CRM qui était proposée en version communautaire et que j’hébergeais chez OVH (LundiMatin – LMB) et le site internet a été séparé en 2 : un site B2C avec Emajine une solution locale mais sous licence propriétaire (l’éditeur Medialibs est basé à Nantes) et un site B2B sous Prestashop.

Pour les réseaux sociaux : Facebook, Instagram Twitter, Youtube.

En interne, tout ce qui est documents de travail léger passaient par Google Drive, Hubic (solution cloud de chez OVH) et les documents plus lourds (illustrations, livres mis en page) par du transfert de fichiers (FTP ou Wetransfer).

 

Qu’est-ce qui posait problème ?

La version communautaire de LMB n’a jamais vraiment décollé et au bout de 3 ans nous avons été contraints de migrer vers la solution SaS, et là, nous avons vraiment eu l’impression de nous retrouver enfermés. Impossible d’avoir accès à nos tables SQL, impossible de modifier l’interface. À côté de ça une difficulté grandissante à utiliser les outils de Google pour des raisons éthiques (alors que je les portais aux nues au début des années 2000…)

 

Vous avez entamé une démarche en interne pour migrer vers des outils numériques plus éthiques. Qu’est-ce qui est à l’origine de cette démarche ?

La démarche est en cours et bien avancée.

J’ai croisé l’existence de Framasoft au début des années 2000 et lorsque l’association a proposé des outils comme les Framapad, framacalc et toutes les framachoses ; j’en ai profité pour diffuser ces outils plutôt que ceux de Google auprès des associations avec lesquelles j’étais en contact. Mes activités associatives m’ont ainsi permis de tester petit à petit les outils avant de les utiliser au niveau de l’entreprise.

Des outils (LMB, Médialibs) propriétaires avec de grandes difficultés et/ou coûts pour disposer de fonctionnalités propre à notre métier d’éditeur. Des facturations pour utilisation des systèmes existants plutôt que pour du développement. Un sentiment d’impuissance pour répondre à nos besoins numériques et d’une non écoute de nos problématiques : c’est à nous de nous adapter aux solutions proposées… Aucune liberté.

« un besoin de cohérence »

Quelle était votre motivation ?

La motivation principale est vraiment liée à un besoin de cohérence.

Nous imprimons localement sur des papiers labellisés, nous calculons les droits d’auteurs sur les quantités imprimées, nos envois sont préparés par une entreprise adaptée, nous avons quitté Amazon dès 2013 (après seulement 1 an d’essai)…

À titre personnel j’ai quitté Gmail en 2014 et j’avais écrit un billet sur mon blog à ce sujet. Mais ensuite, passer du perso à l’entreprise, c’était plus compliqué, plus lent aussi.

Par ailleurs nous devions faire évoluer nos systèmes d’information et remettre tout à plat.

 

…et vos objectifs ?

Il y a clairement plusieurs objectifs dans cette démarche.

  • Une démarche militante : montrer qu’il est possible de faire autrement.
  • Le souhait de mieux maîtriser les données de l’entreprise et de nos clients.
  • Le besoin d’avoir des outils qui répondent au mieux à nos besoins et que nous pouvons faire évoluer.
  • Quitte à développer quelque chose pour nous autant que cela serve à d’autres.
  • Les fonds d’aides publiques retournent au public sous forme de licence libre.
  • Création d’un réseau d’acteurs et actrices culturelles autour de la question du numérique libre.

 

Quel lien avec les valeurs de votre maison d’édition ?

Les concepts de liberté et de responsabilité sont régulièrement présents dans les livres que nous éditons. Réussir à gagner petit à petit en cohérence est un vrai plaisir.
Partage et permaculture… Ce que je fais sert à autre chose que mon besoin propre…

 

Qui a travaillé sur cette démarche ?

Aujourd’hui ce sont surtout Dominique et moi-même qui travaillons sur les tests et la mise en place des outils.

Des entreprises associées : Symétrie sur Lyon, B2CK en Belgique , Dominique Chabort au début sur la question de l’hébergement.

Un des problèmes aujourd’hui est clairement le temps insuffisant que nous parvenons à y consacrer.

Aujourd’hui, la place du SI est pour nous primordiale pour prendre soin comme nous le souhaitons de nos contacts, lecteurs, pour diffuser notre catalogue et faire notre métier.

 

Vous avez les compétences pour faire ça dans l’entreprise ?

Il est clair que nous avons plus que des compétences basiques. Elles sont essentiellement liées à nos parcours et à notre curiosité : si Dominique a une expérience de dev et chef de projet que je n’ai pas, depuis 1987 j’ai eu le temps de comprendre les fonctionnements, faire un peu de code, et d’assemblages de briques 😉

 

Combien de temps ça vous a pris ?

Je dirais que la démarche est réellement entamée depuis 2 ans (le jour ou j’ai hébergé sauvagement un serveur NextCloud sur un hébergement mutualisé chez OVH). Et aujourd’hui il nous faudrait un équivalent mi-temps pour rester dans les délais que nous souhaitons.

 

Ça vous a coûté de l’argent ?

Aujourd’hui ça nous coûte plus car les systèmes sont un peu en parallèle et que nous sommes passés de Google « qui ne coûte rien » à l’hébergement sur un VPS pour 400 € l’année environ. Mais en fait ce n’est pas un coût, c’est réellement un investissement.

Nous ne pensons pas que nos systèmes nous coûteront moins chers qu’actuellement. Mais nous estimons que pour la moitié du budget, chaque année, les coûts seront en réalité des investissements.

Les coûts ne seront plus pour l’utilisation des logiciels, mais pour les développements. Ainsi nous pensons maîtriser les évolutions, pour qu’ils aillent dans notre sens, avec une grande pérennité.

 

Quelles étapes avez-vous suivi lors de cette démarche  de dégooglisation ?

Ah… la méthodologie 🙂

Elle est totalement diffuse et varie au fil de l’eau.

Clairement, je n’ai AUCUNE méthode (c’est même très gênant par moment). Je dirais que je teste, je regarde si ça marche ou pas, et si ça marche moyen, je teste autre chose. Heureusement que Dominique me recadre un peu par moment.

Beaucoup d’échanges et de controverse. Surtout que le choix que nous faisons fait reposer la responsabilité sur nous si nous ni parvenons pas. Nous ne pouvons plus nous reposer sur « c’est le système qui ne fonctionne pas », « nous sommes bloqué·e·s par l’entreprise ». C’est ce choix qui est difficile à faire.

La démarche c’est les rencontres, les échanges, les témoignages d’expériences des uns et des autres…

Et puis surtout : qu’avons nous envie de faire, réellement…

Dans un premier cas, est-ce que cela me parle, me met en joie d’avoir un jolie SI tout neuf ? Ou cela nous aiderait au quotidien, mais aucune énergie de plus.

Dans l’option que nous prenons, l’idée de faire pour que cela aide aussi les autres éditeurs, que ce que nous créons participe à une construction globale est très réjouissant…

La stratégie est là : joie et partage.

Au début ?

Un peu perdu, peur de la complexité, comment trouver les partenaires qui ont la même philosophie que nous…

Mais finalement le monde libre n’est pas si grand, et les contacts se font bien.

 

Ensuite ?

Trouver les financements, et se lancer.

 

Et à ce jour, où en êtes-vous ?

À ce jour nous avons totalement remplacé les GoogleDrive, Hubic et Wetransfer par Nextcloud ; remplacé également GoogleHangout par Talk sur Nextcloud.

Facebook, Instagram et Twitter sont toujours là… Mais nous avons un compte sur Mastodon !

Youtube est toujours là… Mais le serveur Peertube est en cours de création et Funkwhale pour l’audio également.

Concernant l’administration de ces outils, je suis devenu un grand fan de Yunohost : une solution qui permet l’auto-hébergement de façon assez simple et avec communauté très dynamique.

Notre plus gros projet est dans le co-développement d’un ERP open source : Oplibris

Ce projet est né en 2018 après une étude du Coll.LIBRIS (l’association des éditeurs en Pays de la Loire) auprès d’une centaine d’éditeurs de livres. Nous avons constaté qu’il n’existait à ce jour aucune solution plébiscité par les éditeurs indépendants qui ont entre 10 et 1000 titres au catalogue. Nous avons rencontré un autre éditeur (Symétrie, sur Lyon) qui avait de son côté fait le même constat et commencé à utiliser Tryton. (je profite de l’occasion pour lancer un petit appel : si des dev flask et des designers ont envie de travailler ensemble sur ce projet, nous sommes preneurs !)

Migrer LMB, notre ERP actuel, vers Oplibris est vraiment notre plus gros chantier.

À partir de là, nous pourrons revoir nos sites internet qui viendront se nourrir dans ses bases et le nourrir en retour.

 

Combien de temps entre la décision et le début des actions ?

Entre la décision et le début des actions : environ 15 secondes. Par contre, entre le début des actions et les premières mise en place utilisateur environ 6 mois. Ceci dit, de nombreuses graines plantées depuis des années ne demandaient qu’à germer.

« Nous mettons de grosses contraintes éthiques »

Avant de migrer, avez-vous testé plusieurs outils au préalable ?

J’ai l’impression d’être toujours en test. Par exemple, Talk/Discussion sur Nextcloud ne répond qu’imparfaitement à notre besoin. Je préférerais Mattermost, mais le fait que Talk/Discussion soit inclus dans Nextcloud est un point important côté utilisateurs.

Nous mettons de grosses contraintes éthiques, de ce fait les choix se réduisent d’eux-mêmes, il ne reste plus beaucoup de solutions. Lorsqu’on en trouve une qui nous correspond c’est déjà énorme !

 

Avez-vous organisé un accompagnement des utilisateur⋅ices ?

L’équipe est assez réduite et plutôt que de prévoir de la documentation avec des captures écran ou de la vidéo, je préfère prendre du temps au téléphone ou en visio.

 

Prévoyez-vous des actions plus élaborées ?

Nous n’en sommes pas à ce stade, probablement que si le projet se développe et est apprécié par d’autres, des formations entre nous seront nécessaires.

 

Quels ont été les retours ?

Il y a régulièrement des remarques du genre : « Ah mais pourquoi je ne peux plus faire ça » et il faut expliquer qu’il faut faire différemment. Compliqué le changement des habitudes, ceci dit l’équipe est bien consciente de l’intérêt de la démarche.

 

Comment est constituée « l’équipe projet » ?

Dominique, B2CK, Symétrie.

 

Quelles difficultés avez-vous rencontrées ?

La difficulté majeure est de trouver le bon équilibre entre la cohérence des outils et l’efficacité nécessaire dans le cadre d’une entreprise.

Le frein majeur côté utilisateurs est de faire migrer les personnes qui utilisent encore Gmail pour le traitement de leur courriel. L’interface est si pratique et la recherche tellement puissante et rapide qu’il est compliqué de le quitter.

Une autre difficulté est d’ordre comptable et financier : comment contribuer financièrement à ce monde du logiciel libre ? Comment donner ? A quelles structures ? (aujourd’hui nos financements vont principalement au développement de Tryton).

 

Et l’avenir ? Envisagez-vous de continuer cette démarche pour l’appliquer à d’autres aspects de votre organisation ?

Côté création, j’aimerais beaucoup que nous puissions utiliser des outils libres tels que Scribus, Inkscape, Krita ou GIMP plutôt que la suite Adobe. Mais aujourd’hui ces outils ne sont pas adoptés par l’équipe de création car trop compliqués d’utilisation et pas nativement adaptés à l’impression en CMJN. Une alternative serait d’utiliser la suite Affinity (mais qui n’est pas open source…)

Quels conseils donneriez-vous à d’autres organisations qui se lanceraient dans la même démarche ?

Y prendre du plaisir ! Mine de rien, la démarche demande du temps et de l’attention. Il faut confier ça à des personnes qui prennent ça comme un jeu. Oubliez la notion de temps et de délais, optez pour les valeurs qui soient plus la finalité et le plaisir. Au pied de la montagne entre prendre le téléphérique ou le chemin à pied ce n’est pas le même projet, vous n’avez pas besoin des même moyens.

 

Le mot de la fin, pour donner envie de migrer vers les outils libres ?

Sommes-nous les outils que nous utilisons ? Libres ?

Quitter les réseaux sociaux centralisés est extrêmement complexe. Je manque encore de visibilité à ce sujet et ça risque d’être encore très long. J’ai proposé à l’équipe une migration totale sans clore les comptes mais avec un mot régulièrement posté pour dire « rejoignez-nous ici plutôt que là ». Mon rêve serait d’embarquer au moins une centaine d’entreprises dans une telle démarche pour tous faire sécession le même jour. Des volontaires ? 🙂

 

Aller plus loin

  • Fair-play, Albert ne nous l’a jamais demandé, il sait qu’on est un peu allergique à la pub, mais on vous donne quand même le lien vers le site des Éditions Pourpenser

Crédits

  • Illustrations réalisées par Albert sur Gégé  à partir de dessins de Gee
  • Photo de l’équipe avec des illustrations d’Aline de Pétigny et Laura Edon
  • Logo de pourpenser mis en couleurs par Galou



Message aux Youtubeurs, Youtubeuses, et surtout à celles et ceux qui aiment leurs contenus

L’article qui suit devait être au départ un simple message de clarification d’un de nos membres sur notre forum, et puis… paf l’article ! Il a un peu débordé et nous nous sommes dit que malgré son aspect un peu foutraque, cela vaudrait sans doute la peine de le publier sur le Framablog.

NB : comme cet article peut faire débat, et que le framablog n’est pas un outil très adapté pour suivre une discussion, nous avons ouvert un fil de discussion sur le forum PeerTube : Participer à la discussion

La politique de Youtube concernant les contenus des vidéastes est de plus en plus rigide, rendant le travail des créateurs et créatrices de contenus de plus en plus difficile.

Nous en sommes conscient⋅es, et cela fait même plusieurs années que nous constatons non seulement ce type de faits, mais aussi que nous prédisons, sans trop nous tromper, que ce mouvement va continuer à rendre les productions de plus en plus contraintes, jusqu’à aboutir à une forme de contenus totalement normés par Youtube/Google/Alphabet. Au départ plateforme d’expression et de créativité, Youtube profite de son hégémonie indiscutable pour réduire l’inventivité de celles et ceux qui ont quelque chose à dire ou à montrer.

C’est d’ailleurs une des raisons qui a poussé Framasoft à créer et développer le logiciel PeerTube.

Ces derniers jours, nous voyons de nombreuses personnes, notamment sur les médias sociaux, enjoindre des vidéastes de renom (ou pas) à « passer à PeerTube ».

Cela ne nous met pas très à l’aise, et il faut que l’on vous explique pourquoi 🙂

D’abord, Framasoft est une petite association d’éducation populaire aux enjeux du numérique. Nous défendons l’esprit critique et la liberté de choix. Nous pensons que les injonctions au changement induisent de la résistance au changement.

Dit autrement, nous savons que les vidéastes sont des personnes douées d’intelligence et de capacités de veille. Il est peu probable qu’elles acceptent les contraintes de Youtube en s’en fichant complètement. Il est aussi peu probable qu’une personne ne leur ait pas déjà pointé l’existence d’alternatives (il n’y a pas que PeerTube, d’ailleurs). Bref, il est vraisemblable de penser que beaucoup de vidéastes sont dans un processus de réflexion (« Rester sur Youtube ? Partir ? Comment ? Pour aller où ? Avec quelle énergie ? Et qu’est-ce que je fais de l’existant ? de ma communauté ? », etc).

Nous respectons pleinement ce processus, et nous vous encourageons à le respecter aussi. Peut-être que votre vidéaste préféré⋅e choisira d’expérimenter des alternatives (bien !), de quitter Youtube (bien !) ou même de rester sur Youtube (bien aussi ! C’est son choix, pas le vôtre, pas le nôtre).

Par ailleurs, cela donne l’impression que vous êtes des « témoins de Framasoft » 😛 Je vous laisse vous mettre à la place du vidéaste qui reçoit son douzième tweet « Tu devrais essayer PeerTube ! » de la journée. C’est… Saoulant ! Et nous, cela nous place dans une situation un peu compliquée, où des personnes croient qu’on a lâché une armée de fidèles à leurs trousses pour les convertir au libre de gré ou de force par le harcèlement. Du coup, et c’est compréhensible, ces vidéastes ont une mauvaise image du libre avant même d’avoir essayé.

Rappelons que PeerTube n’est pas développé par une startup qui veut lever des millions, mais par une association qui ne vise ni le profit, ni la gloire : nous ne jugeons donc pas le succès du réseau PeerTube au nombre de vidéos hébergées, au nombre de vues, ou aux « poids lourds » qui seraient passé de Youtube à PeerTube. Le succès de PeerTube tient, pour nous, dans sa capacité à proposer « autre chose », et dans sa capacité d’émanciper de Youtube toute personne qui en aurait le besoin, qu’il s’agisse d’un vidéaste à x millions d’abonnés, d’une étudiante souhaitant partager une idée, d’un père de famille souhaitant partager une vidéo de vacances à quelques personnes, ou d’une institution souhaitant archiver ses vidéos.

Ensuite, PeerTube, ça n’est pas Youtube !

Prenons quelques lignes pour rappeler quelques différences :

Pas de point d’entrée unique

Il y a le logiciel PeerTube, il y a le réseau PeerTube, mais il n’y a pas une seule plateforme en .com ou .org. Ne cherchez donc pas « peertube.com » ou « peertube.org », ce ne sont que des domaines cybersquattés.

Pour un⋅e vidéaste, ça change pas mal de choses, car ça signifie qu’il ou elle doit choisir son instance PeerTube, c’est à dire le serveur sur lequel une personne aura installé le logiciel PeerTube. Et il y en a aujourd’hui plus de 500. Donc, évidemment, ce large choix peut signifier « c’est le bordel » pour plein de gens. On le comprend, mais ça reste une volonté — et une conséquence — de ne pas centraliser.

Rappelons que les instances peuvent être fédérées entre elles. Ce qui permet au visiteur de l’instance « monpeertube.org » de voir ou de commenter les vidéos de l’instance « autrepeertube.fr » sans quitter monpeertube.org.

Rappelons aussi que, même s’il n’y a pas de point d’entrée unique, il est possible de créer des portes d’entrée via un moteur de recherche, comme Framasoft l’a fait avec https://sepiasearch.org/

Pas de rémunération automatique

Sur Youtube, il est possible, en quelques clics, de demander à ce qu’une vidéo soit monétisée, pour peu qu’elle réponde aux critères prédéfinis de Google (par exemple, parler de guerres, ou même de menstruation, c’est un coup à se voir refuser la monétisation de sa vidéo). Google affichera alors des publicités, et plus la vidéo (et donc les pubs) sera vue, plus cela rapportera au vidéaste.

C’est un système qui peut se défendre. S’il convient à certain⋅es, et bien tant mieux. Nous, à Framasoft, on n’aime pas trop. Déjà parce que la publicité, c’est pas trop notre kif. Ensuite parce que c’est Google qui décide qui sont les annonceurs (perso, j’aurai un peu de mal à voir une publicité Total interrompre ma vidéo). Enfin parce que c’est Google qui décide de tout et place le vidéaste en position de soumission féodale : Youtube décide de qui peut monétiser ses vidéos (et peut retirer cette possibilité à tout instant), mais décide aussi du montant de la rémunération (et peut décider de diviser ses prix par 10, 100 ou 1 000 du jour au lendemain).

PeerTube refuse une monétisation centralisée

Cela ne signifie pas qu’un⋅e vidéaste ne peut pas gagner d’argent avec des vidéos publiées sur PeerTube, mais qu’il ou elle devra choisir et mettre en place son mode de rémunération. Ça peut être de mettre son compte Patreon ou uTip ou Liberapay dans le bouton « soutenir » prévu à cet effet. Ça peut être d’afficher une vidéo sponsorisée avant ou après son contenu (mais ça sera à lui ou elle de gérer cela), etc. Les possibilités sont en fait quasi-infinies, mais 1) il n’y aura clairement pas de PeerTube-money, et 2) il faudra faire des choix, et il y a des chances que les choix qui paieront le plus seront ceux qui demanderont le plus d’efforts (ex: contacter et gérer des sponsors, ça sera sans doute plus rémunérateur, mais aussi plus énergivore, que d’afficher un compte uTip).

Pas de migration de communauté

PeerTube permet d’importer automatiquement tout le contenu d’une chaîne, ou même de la synchroniser entre Youtube et PeerTube, de façon à ce qu’une vidéo ajoutée sur Youtube soit directement ajoutée sur votre instance PeerTube (NB: il faudra probablement demander à l’administrateur de l’instance de le faire pour vous, car pour l’instant, l’outil est en ligne de commande).

Par contre, ce que PeerTube ne peut pas faire, car Youtube/Google ne le permet pas, c’est d’importer votre communauté. Si vous avez 50 000 followers sur Youtube, il va falloir les motiver à vous retrouver sur PeerTube. Et certains se perdront en route. Évidemment, vous pouvez faire le choix de ne pas migrer d’un coup, mais plutôt d’y aller progressivement (c’est par exemple ce qu’ont fait nos ami⋅es de Datagueule).

C’est ce qu’on appelle la loi de Metcalfe, ou « l’effet réseau » : la valeur d’un réseau augmente exponentiellement en fonction de son nombre d’utilisateur⋅ices. Dit autrement : Youtube a de la valeur, parce qu’il y a un immense nombre d’utilisateurs (et de vidéos). Ce qui fait que quitter Youtube a un « coût ». En tant qu’individu rationnel, le ou la vidéaste doit donc évaluer ce coût par rapport aux gains (financier, humains, libertés, etc.) qu’il en retirera. Ce n’est pas à un logiciel de régler cette équation, c’est à l’être humain. C’est pourquoi, à Framasoft, nous ne cherchons pas à « convaincre » que le passage à PeerTube sera forcément une bonne chose. On peut le souhaiter, on peut le penser, on peut même en être certain. Mais ça n’est pas à nous d’en décider.

Pas aussi abouti

Bon, Google/Alphabet, c’est juste la 3e plus grosse boite mondiale. 130 000 employés, 275 milliards de chiffres d’affaires, 34 milliards de profits en 2019. Google, c’est juste plus de 500 000 fois le poids de Framasoft. Imaginez ce que vous pourriez faire avec 500 000€. Inspirez… Réfléchissez… Ça y est, vous voyez ?
Maintenant, imaginez ce que vous pouvez faire avec… 1€. Inspirez… Réfléchissez… Voilà, vous avez compris 🙂

PeerTube, en 3 ans à peine et avec 1€, ne peut pas être aussi abouti techniquement que peut l’être un Youtube, qui va fêter ses 15 ans, disposant de 500 000€. Il ne le sera probablement jamais. Et on dort très bien en sachant cela.

Donc, la fonctionnalité de traduction collaborative en breton, ou le sous-titrage automatique, ou encore le support de tel navigateur peu répandu, ça n’est clairement pas pour demain, et peut-être pour jamais. Si cela vous empêche de migrer, pas de souci, on le comprend.

Pas autant de contenus

Il y a littéralement des milliards de vidéos sur Youtube. Contre à peine 250 000 sur PeerTube (cf https://instances.joinpeertube.org/instances/stats ). Pour la raison « d’effet de réseau » décrite ci-dessus, le nombre de vidéos sur Youtube y sera sans doute toujours bien plus important que sur PeerTube. Là encore, ça ne nous empêche pas de dormir. Nous ne cherchons pas à avoir « le plus gros kiki réseau » mais bien à offrir d’autres possibilités que celle de dépendre de Youtube. Nous comprenons parfaitement que cela ne conviendra pas à de nombreux vidéastes. Mais si nous leur proposons une « porte de sortie », nous ne nous sentons pas la responsabilité de devoir les attirer ou de les convaincre. C’est à elles et eux de voir si leur choix va vers plus de liberté ou plus de confort (et le confort, ça n’est pas péjoratif, on a tout à fait le droit de se dire qu’on ne veut pas se prendre la tête ou que le nombre de vidéos sur la plateforme prime sur d’autres arguments).

Pas autant de visiteurs/vues

NB: cette remarque n’existait pas dans l’article paru originellement, mais vous pouvez vous référer à la lecture du commentaire suivant publié quelques jours plus tard pour avoir des éléments de réponses : https://framablog.org/2020/10/29/message-aux-youtubeurs-youtubeuses-et-surtout-a-celles-et-ceux-qui-aiment-leurs-contenus/#comment-82912

Sauf à s’héberger, on dépend (malgré tout) d’une tierce personne

Il y a un mythe qu’il faut casser : celui qui dit qu’avec PeerTube, vous avez tous les droits.

C’est plus complexe que cela. Tout d’abord, ce n’est pas parce que vous êtes sur une plateforme d’un réseau libre que vous n’avez pas des lois à respecter (l’apologie du nazisme est tout aussi interdite sur Youtube que sur PeerTube, et heureusement !).

Ensuite, avec PeerTube, si vous êtes vidéaste, vous avez en gros quatre solutions :

1. Vous héberger vous-même. Cela réclame quelques compétences, et cela coûte de quelques dizaines à quelques centaines d’euros par an pour la location d’un serveur. Mais au moins, vous êtes maître chez vous. Si, dans une de vos vidéos, vous utilisez 30 secondes d’extrait du film OSS117, vous êtes (probablement) dans l’illégalité. Mais aucun robot contentID ne viendra automatiquement censurer votre contenu.

Pour prendre une analogie avec l’habitat, c’est un peu comme devenir propriétaire d’une maison. Sur le papier, c’est chouette, mais dans les faits, vous êtes responsable de ce qu’il s’y passe, et si une canalisation pète, ça sera à vous de le gérer.

C’est le cas, par exemple de l’instance PeerTube https://peertube.datagueule.tv (qui par ailleurs a fait le choix de ne se fédérer à aucune autre instance, donc vous n’y trouverez que les vidéos de Datagueule)

2. Sous traiter l’hébergement de votre instance, si vous ne voulez pas vous prendre la tête avec la technique. Vous faites alors le choix d’un « hébergeur » (c’est à dire une association, entreprise ou autre) qui va installer et maintenir votre instance PeerTube à l’adresse de votre choix (par exemple si vous êtes passionné de sushis, cela pourra être videos.passionsushis.fr). Il faudra très probablement les rémunérer pour ce travail. Mais au moins, vous n’avez pas à vous occuper des travaux. Et, sur cette instance, vous pouvez décider de faire ce qu’il vous plaît, y compris de choisir d’accueillir d’autres vidéastes.

En matière d’habitat, ça serait l’équivalent d’une location : vous dépendez certes d’un propriétaire (l’hébergeur) mais c’est bien vous qui gérez votre instance.

Des chatons comme https://ethibox.fr/peertube vous permettent, par exemple, de déléguer l’installation et la gestion de votre instance PeerTube.

3. Rejoindre une instance existante : il y a plus de 500 instances PeerTube. Donc, il faut choisir avec attention. Parce que si vous placez vos vidéos chez une personne autoritaire ou non coopérative, vous n’aurez pas gagné grand chose par rapport à votre situation chez Youtube. Le site JoinPeerTube donne des éléments pour faire un premier tri dans les instances et leurs politiques (l’instance est elle modérée ? par qui ? L’instance accepte-t-elle les vidéos pornos ? Comment l’hébergeur PeerTube envisage-t-il la pérennité de son instance ? etc).

En gros, ça revient à être dans une chambre d’hôtel (qui peut, ou non, vous offrir la chambre). Certains établissements vous ressembleront vraiment, que vous soyez plutôt palace 4 étoiles ou plutôt auberge de jeunesse, mais le gérant de l’hôtel peut décider de ne pas faire le ménage, ou même vous mettre dehors.

L’instance https://video.ploud.fr/about/instance est un bel exemple d’une instance ouverte à toutes et tous : gérée par une entreprise, elle accueille +2 500 utilisateurs et plus de 20 000 vidéos.

4. Mutualiser les efforts autour d’une instance thématique : c’est (à notre avis) la solution intermédiaire idéale si vous ne voulez pas gérer votre propre instance, mais souhaitez publier du contenu de qualité.

Pour poursuivre la métaphore avec l’habitat, vous seriez ici dans l’équivalent d’une colocation où les colocataires peuvent se choisir entre elles et eux par cooptation.

Prenez par exemple l’instance https://skeptikon.fr/about/instance : 2 400 utilisateur⋅ices, mais « seulement » 838 vidéos. Par contre, ces vidéos sont toutes sur une même thématique : « la zététique, l’esprit critique et le scepticisme de manière plus générale. ». Plus intéressant encore, cette instance est gérée par une association dédiée, qui est financée par les dons. Cela permet à des vidéastes de différentes tailles de pouvoir diffuser leurs vidéos hors de Youtube, tout en conservant un coût raisonnable. C’est un modèle intéressant, car si par exemple un telle association compte 30 vidéastes, payant chacun 24€ par an (soit 2€ par mois dans cet exemple), cela permet de financer un gros serveur dédié et de ne pas être limité par l’espace disque. Il faut « juste » trouver du monde pour faire collectif, ce qui n’est pas simple, mais permet aussi de construire de faire-ensemble.

Illustration de David Revoy (CC-By)

Bref, oui PeerTube a un énorme avantage sur Youtube : celui de vous permettre de redevenir libre des contraintes de Youtube. Que vous soyez vidéaste ou simple spectateur⋅ice. Pas de censure pour des raisons inconnues, pas de démonétisation, pas d’épée de Damoclès suspendue au-dessus de votre tête. Mais ça n’est pas non plus une solution magique. Elle réclame des efforts, et parfois même des sacrifices.

Ces sacrifices, c’est quelque chose que l’on peut accepter de faire soi-même, mais il nous semble carrément malaisant de les demander (ou pire, les exiger) de la part de quelqu’un·e d’autre.

Souvent, un·e fan qui dit « T’as pensé à passer sur PeerTube ? Tu devrais ! » ne songe pas qu’il ou elle est en train de demander un sacrifice. Mais un·e vidéaste, qui travaille au quotidien sur ces questions, ne peut pas ignorer l’effort induit par ces simples demandes. Alors soyons choux, restons disponibles auprès des créatrices et créateurs qui demandent de l’aide et des conseils, et laissons les autres en paix : ils et elles sauront où nous trouver si leur chemin les mène vers PeerTube.

NB : comme cet article peut faire débat, et que le framablog n’est pas un outil très adapté pour suivre une discussion, nous avons ouvert un fil de discussion sur le forum PeerTube : Participer à la discussion




Prédation de nos données de santé : SantéNathon ne lâche pas l’affaire

Les conséquences des stratégies économiques et technologiques d’un État peuvent parfois prendre des tournures très concrètes. En matière de données de santé des citoyens, beaucoup pouvaient penser que l’humanisme des professionnels de santé pouvait suffire pour protéger les données de santé des citoyens, dans le respect du secret médical. Mais la pression concurrentielle et l’éthique font rarement bon ménage.

En novembre 2019, nous avions confié les colonnes de ce blog au collectif Interhop qui promeut l’usage des logiciels libres et de l’open source en santé. Il fait partie du collectif SantéNathon qui a lancé une démarche de recours à l’encontre du projet très discuté du Health Data Hub, une plateforme nationale de données de santé dont l’opérateur choisi par les autorités est l’entreprise Microsoft. À l’heure où le Privacy Shield est tombé, à l’heure du RGPD, à l’heure où la « souveraineté numérique » n’est plus seulement un sujet stratégique mais aussi sécuritaire, nous confions de nouveau ces colonnes pour un point d’étape sur les enjeux et les actions en cours.


Plateforme Nationale des Données de Santé

À l’occasion d’une audience prévue au Conseil d’État ce 08 octobre 2020, cette petite vidéo a été tournée devant les locaux d’une entreprise bien connue.

Le Health Data Hub Centralise les données de santé chez Microsoft. Le collectif SantéNathon, issu du monde informatique et de la santé, s’oppose à la centralisation chez Microsoft Azure des données de santé de plus de 67 millions de personnes. Un recours déposé au Conseil d’État demande l’application de la décision de la plus haute juridiction européenne qui s’alarmait de l’accès sans limitation des services de renseignement américains aux données hébergées par les GAFAM.

La genèse du projet Health Data Hub

Tout commence en janvier 2016 avec la loi de modernisation du système de santé. Le Système national des données de santé (SNDS) est créé. Initialement il est limité aux données médico-administratives et met à disposition des données individuelles de santé issues de 3 bases de données :

  • Les données de la carte vitale,
  • Les données de la tarification des établissements de santé,
  • Les données statistiques relatives aux causes médicales de décès.

En juillet 2019, la loi élargit considérablement le SNDS et crée le Health Data Hub ou Plateforme des Données de Santé — PDS. La CNIL s’alarme du changement de paradigme engendré : « Au-delà d’un simple élargissement, cette évolution change la dimension même du SNDS, qui vise à contenir ainsi l’ensemble des données médicales donnant lieu à remboursement ».

En plus du SNDS historique voici à titre d’exemples les bases qui doivent être hébergées au sein de la PDS :

  • la base OSCOUR : base de données relative aux passages aux urgences en France. Pour chaque patient admis aux urgences, elle recueille les éléments suivants : code postal de résidence, date de naissance, sexe, date et heure d’entrée et de sortie, durée de passage, mode d’entrée, provenance, mode de transport, classification de gravité, diagnostic principal et associés, mode de sortie, destination pour les patients mutés ou transférés.
  • le Registre France Greffe de Moelle : données permettant d’étudier le parcours de soin entre l’annonce du don et le don de Moëlle.
  • Base des 500 000 angioplasties : données permettant d’étudier l’impact des stents dans la vie réelle.
  • la cohorte I-Share : données permettant d’analyser la santé des étudiants.
  • SIVIC : données nationales de suivi de la prise en charge de patients hospitalisés COVID19 (depuis mars 2020).
  • STOIC : bases de données de scanners thoraciques issus de plusieurs centres ainsi que des données cliniques.
  • COVID TELE : formulaires d’orientation concernant la COVID19 issues d’application en santé et outils de télémédecine.

Cette liste est loin d’être exhaustive ; les données de cabinets de médecins généralistes, des hôpitaux, des laboratoires, d’imagerie doivent aussi remplir cette plateforme. Toutes ces bases seront centralisées et liées (on parle d’appariement) pour former le catalogue de données de la PDS.

Vives inquiétudes quant au choix de Microsoft Azure

Le 10 décembre 2019, l’alerte est lancée. Dans une tribune parue dans Le Monde, un collectif initié par des professionnels du secteur de santé et de l’informatique médicale s’inquiète. En effet, la PDS qui regroupe l’ensemble des données de santé de plus de 67 millions de personnes sera hébergée chez Microsoft Azure, le cloud du géant américain. Ces données constituent la part la plus sensible des données à caractère personnel car elles sont protégées par le secret médical.

Progressivement, ce collectif évolue. Il s’appelle maintenant SanteNathon.org. C’est une rencontre inédite de 18 personnes physiques et morales issues :

  • de l’industrie du logiciel libre :
    • Conseil National du Logiciel Libre (CNLL)
    • Ploss Auvergne-Rhône-Alpes
    • SoLibre
    • NEXEDI
  • des associations de patients et de volontaires :
    • Association Constances
    • Association les “Actupiennes”
    • Association Française des Hémophiles
    • Mme Marie Citrini, représentante des Usages des Hôpitaux de Paris
  • des associations de professionnels de santé :
    • Syndicat National des Jeunes Médecins Généralistes (SNJMG)
    • Syndicat de la Médecine Générale (SMG)
    • Union Française pour une Médecine Libre (UFML)
    • M. Didier Sicard, médecin et professeur de médecine à l’Université Paris Descartes).
  • d’ingénieurs :
    • l’Union Fédérale Médecins, Ingénieurs, Cadres, Techniciens (UFMICT-CGT)
    • l’Union Générale des Ingénieurs, Cadres et Techniciens (UGICT-CGT)
    • l’Association interHop
    • Monsieur Bernard Fallery, professeur émérite en systèmes d’information
  • d’organisations de la société civile :
    • L’Observatoire de la transparence dans les politiques du médicament
    • Le Syndicat National des Journalistes (SNJ)

Ce collectif dénonce le choix de Microsoft essentiellement à cause de l’absence d’appel d’offre et des effets de l’extraterritorialité du droit américain. En effet Microsoft est soumis au CLOUD Act qui permet aux autorités américaines de mettre la main sur des données détenues par des entreprises américaines même si les données sont hébergées dans l’Union Européenne.

Pire encore la Cour de Justice de l’Union Européenne a récemment révélé que les renseignements américains n’ont aucune limitation quant à l’utilisation des données des Européen⋅ne⋅s. En ce sens, elle a invalidé l’accord facilitant le transfert des données entre les USA et l’Union Européenne, le “Privacy Shield” ou « Bouclier de Protection des Données ».

Menacée directement par les conséquences de cette décision qui rend illicites tous les transferts de données en dehors des frontières de l’Union, Facebook fait pression sur l’Union Européenne. Elle menace de stopper ses services d’ici la fin de l’année.

Le bras de fer entre les États-Unis et l’Union Européenne est engagé. Nos données de santé ne doivent pas être prises en otage. Le collectif SantéNathon se bat pour une recherche garante du secret médical et protectrice de nos données.

Les actions initiées par le collectif SantéNathon

Un premier recours a été déposé le 28 mai 2020 devant le Conseil d’Etat. La juge concluait à plusieurs irrégularités dans le traitement des données sur la plateforme et des risques majeurs pour les droits et libertés fondamentales. Cependant, le Conseil d’État considérait, qu’au moment du jugement, la société Microsoft intégrait la liste des organisations ayant adhéré au « Bouclier de protection des données ». Le transfert des données était donc licite. Ce n’est plus le cas aujourd’hui !

Les parties requérantes ont donc déposé un nouveau référé liberté. Elles demandent par conséquent au Conseil d’État de prendre la mesure de l’invalidation du “Privacy Shield” et des risques en matière de respect de la vie privée. En ce sens, elles sollicitent la suspension du traitement et la centralisation des données au sein du Health Data Hub.

Elles font également valoir que les engagements contractuels conclus entre la société Microsoft et le Health Data Hub sont insuffisants.

Une audience au Conseil d’État est donc prévue le 8 octobre 2020…

— Collectif SantéNathon

 


Image d’en-tête : Luis Jiménez Aranda — La sala del hospital en la visita del médico en jefe (1889). Wikipédia.

 

 




Appel à participer aux États généraux du numérique libre et des communs pédagogiques

Lors de l’annonce du confinement, Framasoft se faisait le relai d’un collectif citoyen dont l’objectif était d’accompagner et soutenir les enseignant⋅es dans leur pratiques numériques. Ce collectif, quelques mois plus tard, donnait naissance à l’association collégiale Faire École Ensemble (FÉE). Aujourd’hui, bien que la position de Framasoft vis-à-vis du Ministère de l’Éducation Nationale soit sensiblement la même qu’en 2016, nous relayons leur appel dans les colonnes du Framablog afin que les publics intéressés par la démarche d’« États Généraux du Numérique libre et des communs pédagogiques » puissent y participer.


Appel à participation
État généraux du numérique libre dans l’éducation
— Auteur : Faire École Ensemble (FÉE)

 

Des États généraux du numérique libre et des communs pédagogiques sont proposés par Internet le 3 novembre 2020 sur l’impulsion initiale de l’association collégiale Faire École Ensemble (FÉE) qui facilite les collaborations entre les citoyens et la communauté éducative.

Ces rencontres sont une contribution originale aux États Généraux du Numérique organisée par le Ministère de l’Éducation Nationale et s’adressent à un public large et diversifié : enseignants, parents, libristes, designers, acteurs de l’éducation populaire, médiateurs numériques, bricoleurs, agents des collectivités, élus, syndicalistes, amateurs et curieux…

S’inscrire

Le confinement et la fermeture brutale des établissements scolaires ont conduit à une situation sans précédent d’enseignement « à distance » généralisé. Face à l’urgence de la situation, de nombreux enseignants, parents et acteurs associatifs ont fait preuve d’une créativité renouvelée et ont repensé leur manière d’agir avec le numérique. Quotidiennement nombre d’entre-eux se tournaient – par nécessité – vers les GAFAM et autres plateformes internationales, que ce soit pour trouver une vidéo (YouTube), pour concevoir des exercices (Google Edu), pour partager des références (Padlet), pour faire une visioconférence (Zoom) ou pour écrire un document à plusieurs mains (Google Docs).

Le manque de débat sur la place prise par les GAFAM dans l’éducation pendant cette crise ne doit pas restreindre celui sur les solutions alternatives et les autres modèles de collaboration et d’apprentissage tournés vers la culture du libre et la pratique des communs. En effet, des milliers d’enseignants, de parents et d’acteurs associatifs se sont tournés vers la production et l’utilisation de ressources libres (contenus, logiciels, données) pour coopérer, mutualiser des connaissances, élaborer des scénarios d’apprentissage et s’organiser tout au long de la crise provoquée par le confinement. Si ces pratiques ont fait preuve de leur efficience, elles méritent d’être connues et partagées au plus grand nombre.

Afin que la mise en débat public ait lieu, Faire École Ensemble propose de se réunir par Internet le 3 novembre, pour les États généraux du numérique libre et des communs pédagogiques. Cette initiative, s’inscrit comme une forme originale de contribution aux États généraux du numérique éducatif organisés par le Ministère de l’Éducation Nationale, les 4 et 5 novembre à Poitiers.

Les EGN libre et des communs pédagogiques proposeront des temps d’inspiration, d’écoute des besoins, de mise en discussion (enjeux et propositions) et de mise en pratique. Ils participeront par cela à révéler l’existant, à faciliter le lien entre communautés qui agissent pour la production, l’usage ou la pérennisation de ressources libres et de communs pédagogiques. La programmation se destine à être entièrement co-construite avec les différents participants d’ici le 20 octobre.

Appel à participation

Enseignants, parents, développeurs, designers, acteurs de l’éducation, populaire et du numérique, communautés organisées, bricoleurs, agents des collectivités, élus, syndicats, etc. il nous est donné une occasion de se rencontrer, de révéler des pratiques et de promouvoir la culture du libre et des communs dans l’éducation. Nous vous invitons  à vous joindre aux #EGN_Libre pour témoigner de votre expérience, vous informer et échanger 🙂

Comment participer ?

  • S’inscrireici
  • Alimenter la programmation et proposer un événement : ici
  • Partager votre expérience et témoigner de votre pratique du libre et des commun dans l’éducation sous la forme de récit audio : suivre ce lien
  • Soutenir les propositions déposées sur la plateforme officielle des EGN  et regroupées ici et relayées quotidiennement sur ce compte twitter et ce compte mastodon
  • Pour toute suggestion : logiciel.libre@faire-ecole.org