Marie-Cécile Godwin : « les usages prévalent sur tout »
Un internaute nous dit : J’ai été particulièrement intéressé par les propos de Marie Cécile Godwin sur ses interactions avec les utilisateurs de PeerTube et les vidéastes qui utilisent déjà YouTube, ainsi que sur ses retours sur la communauté du libre… Dis, Framablog, tu nous ferais un entretien avec elle pour en parler plus longuement ?
Mais avec grand plaisir ! Marie-Cécile, 39 ans, amatrice de Rice Krispies et de tricot, designer UX quand il faut payer les factures. Diplômée de communication visuelle en 2004 (oui, ça date !), j’ai peu à peu navigué vers la stratégie de conception et l’étude des usages, à l’époque où on ne parlait pas encore d’UX. Aujourd’hui, je passe la plupart de mon temps à coller des post-it partout, écouter des personnes me parler de leurs usages numériques et faire de mon mieux pour déconstruire les clichés sur le numérique des étudiant·es durant les cours que je donne. D’ailleurs, je leur propose régulièrement de prendre les logiciels libres comme sujets d’étude !
Qu’est-ce que tu savais du logiciel libre et de la culture geek avant de nous rencontrer ?
Pas grand chose. J’utilisais certains d’entre eux, mais je n’avais pas encore fourré le nez dans la culture libre et ses valeurs. En bonne designer graphique, je capitulais devant le poids des grandes firmes et de leurs logiciels propriétaires pour respecter la chaîne de production tout autour de moi. Puis, avec l’arrivée des plateformes sociales et la découverte des enjeux liés, entre autres, à l’Anthropocène, j’ai enfin pu déconstruire mes préconceptions au sujet des libertés individuelles, et de ce que nous pouvons faire pour nous prémunir de leur destruction. Pour ce qui est des logiciels propriétaires, j’ai récemment décidé de passer à la suite Affinity Serif qui n’est pas libre, mais qui propose leurs logiciels à prix fixe, une rareté dans l’industrie où il ne reste que des programmes « cloud » à abonnement.
Est-ce que tu avais une vision réaliste des vidéastes qui publient sur le web, ou est-ce que tu as eu des surprises en bossant sur PeerTube ?
Très peu consommatrice de contenus vidéos, je n’ai pas bien suivi le phénomène de l’explosion des vidéastes. Certainement dû à mon grand âge, en tout cas sur l’échelle du Web 😀
Du coup, pas tellement de surprises en découvrant l’univers gravitant autour de Peertube, mais de belles rencontres, notamment au fil des entretiens menés pour découvrir les usages de chacune et chacun.
Tu dis que tu es designer, en quoi ça consiste ?
Ah ça, c’est LA question piège à chaque fois qu’on me demande ce que je fais. Il y a des clichés très persistants sur le design, qui est vu comme la discipline de l’apparence et du beau. Si je devais revenir aux fondements de ma pratique, je suis la personne chargée de (re)cadrer le besoin initial, d’analyser le contexte et le terrain, puis de prendre toute la complexité recueillie, l’ordonner et lui donner LA forme qui conviendra.
Que ce soit du travail de graphisme (UI) pour adapter une identité graphique à un wireframe, ou du travail de conception dudit wireframe, ou encore la création d’un « service blueprint » (un plan technique d’un service ou d’une organisation destiné à faciliter l’identification des problèmes ou des frictions) d’après des données de terrain ou d’entretiens, tout part des mêmes méthodes : cadrer, analyser, ordonner puis choisir la forme de restitution qui conviendra.
Ce processus est à la base de tout, c’est ce qui s’appelle la « pensée design », et qui fait les beaux jours des cabinets de consulting sous le très à la mode « design thinking« . Mais qu’on appelle ça « design thinking« , « UX design » ou un quelconque néologisme bullshit, cela m’importe peu. Je me dis souvent « UX designer » ou « UX researcher » parce que ce sont des termes qui sont maintenant entrés dans le langage commun et qui ont un vague sens pour les personnes à qui je le dis. Mais au final, je suis bien « conceptrice » un peu comme je pourrais être « ingénieure ». C’est une façon de penser, réfléchir et faire les choses, puis de leur donner la juste apparence en fonction de tous ces paramètres. J’assiste la conception de systèmes et de services.
Est-ce que tu as changé de façon de « faire du design » au cours de ta vie professionnelle ?
Ouh là là oui ! À l’époque où j’ai fait mes études (le tout début du siècle !), le monde était radicalement différent et les inégalités et oppressions systémiques amplifiées par le numérique étaient beaucoup moins saillantes qu’aujourd’hui. Mon propre privilège m’était également invisible.
je me suis frottée au capitalisme de surveillance
Je me contentais de faire ce que l’on m’avait appris : obéir aux exigences d’un⋅e client·e et faire de mon mieux pour contribuer à atteindre ses objectifs, la plupart du temps ceux-ci étant résumables à « vendre plus de trucs ». Depuis, je me suis frottée au capitalisme de surveillance, à la surconsommation, au dérèglement climatique, aux oppressions systémiques et j’ai découvert que le design et les designers étaient loin d’être innocentes dans tout ça. Il m’a fallu du temps, mais aujourd’hui j’essaie de faire de mon mieux pour parler de ces aspects et les appliquer au quotidien dans ma manière de travailler et les personnes avec qui je travaille.
Pourquoi as-tu accepté de contribuer à Framasoft (On n’en revient toujours pas qu’une pointure comme toi accepte de nous aider) ?
Une « pointure » ? mais non enfin 😀
Hé bien justement, pour toutes les raisons susmentionnées. Il n’est pas possible de lutter individuellement contre des choses aussi complexes et insidieuses que le dérèglement climatique et le capitalisme de surveillance. Par contre, on peut faire plein de petits choix conscients qui feront avancer petit à petit les choses. Collaborer avec Framasoft, que ce soit via des prestations rémunérées ou du bénévolat, me permet d’avoir la sensation de faire une petite part du travail à accomplir pour que le monde soit un poil moins pourri chaque jour.
Aussi, parce que Framasoft est blindée de personnes formidables que j’aime beaucoup côtoyer (toujours à 2 mètres de distance et avec un masque :P) et que j’apprends énormément à leurs côtés.
Quand tu as commencé à regarder ce qui n’allait pas en termes d’UX / UI chez Framasoft, qu’est-ce qui t’a choquée le plus ?
Le mot « choquée » est un peu fort. 😛
Ce qui me donne le plus de fil à retordre, c’est tout le travail de « change management« , pour employer un terme très startup nation. Le modèle mental des designers est radicalement différent, dans la manière d’aborder la conception d’un outil, par exemple d’un logiciel. Nous n’allons pas nous appuyer sur nos propres perceptions pour prendre des décisions, mais nous allons d’abord étudier le contexte, aller voir des personnes qui ont le même besoin, et essayer de trouver un modèle de conception qui serve le plus de monde possible.
Ce travail, s’il n’est pas fait en amont, pose deux problèmes : l’outil une fois conçu ne va pas « parler » aux personnes qu’il est censé aider. Par exemple, le vocabulaire verbal ou visuel de l’interface induira les personnes qui l’utilisent en erreur, soit parce qu’il est trop technique ou qu’il n’emploie pas les bonnes métaphores visuelles. Le deuxième problème, plus structurel, se traduit dans la manière dont le projet est mené et conçu. Si vous avez passé votre vie à concevoir des programmes, qu’ils vous conviennent bien, et qu’en plus personne n’a jamais vraiment râlé, vous n’allez pas avoir besoin de vous remettre en question. Comme je le raconte souvent quand je parle de conception / design dans le libre, en tant qu’UX designer j’arrive avec un constat inconfortable : « ton logiciel ne prend pas le problème dans le bon sens… ». Si on s’arrête là, c’est sûr que ça donne l’impression qu’on va tout péter à coups de masse et que tout le boulot fait jusqu’à présent est à jeter aux oubliettes. La suite du constat est plus cool : « …mais c’est pas grave, on va trouver ensemble des manières de le faire évoluer pour qu’il parle à davantage de gens ».
Comment s’est déroulé ton travail sur PeerTube ?
À la différence de Mobilizon, où le projet commençait à peine et où la team Frama m’a intégrée tout de suite, PeerTube a déjà tout un existant avec lequel j’ai dû me familiariser : l’histoire du projet, de son concepteur, les évolutions, les contributions, les dynamiques autour du projet. J’étais dans mes petits souliers au début ! Ce n’est pas facile de débarquer comme une fleur avec un œil de designer, souvent notre travail est perçu comme l’arrivée d’un chien dans un jeu de quilles, un peu à la « c’est moche, on refait tout ». Il est important de prendre en compte l’histoire du projet et tout le bagage émotionnel qui va avec. On a commencé doucement avec une première phase où j’ai fait l’éponge en posant des questions à l’équipe et à Chocobozzz, puis où j’ai mené des entretiens pour nous faire une meilleure idée de ce que les utilisatrices et utilisateurs de PeerTube en faisaient et ce dont elles et ils avaient besoin. J’ai réalisé en tout une quinzaine d’entretiens, desquels sont sortis non seulement plein d’idées d’améliorations à très court terme, mais aussi de quoi nourrir des orientations stratégiques sur le temps long.
Ce qui m’intéresse beaucoup dans ce projet, c’est d’accompagner Chocobozzz dans les futures évolutions du logiciel en lui apportant la facette « UX ». Outre des petites choses simples comme l’aider à justifier des décisions ergonomiques ou graphiques grâce aux heuristiques de design graphique ou d’utilisabilité, on essaie de bien cadrer les problèmes identifiés, de se faire une bonne idée des usages qui vont autour et de prendre les décisions qui y correspondent.
La grande satisfaction jusqu’à présent, c’est de sentir que je suis utile et que mon travail ne génère pas de défiance dans l’équipe. Chocobozzz m’a dit que ça lui faisait du bien de bosser avec une designer, lui qui a été bien seul sur l’immense majorité de son projet et qui a dû faire des choix ergonomiques sans réellement savoir si c’était la bonne voie ou pas.
les libristes, c’est comme un bol de M&M’s
Qu’est-ce que tu trouves de génial et qu’est-ce que tu trouves de détestable dans la communauté du Libre ?
Ce qui est absolument génial, ce sont ces valeurs partagées et cette ouverture vers des alternatives. La radicalité politique de la communauté est très appréciable. Pour s’intéresser au libre, il faut avoir fait un chemin individuel qui implique forcément de la réflexion, une prise de recul sur l’existant, et l’audace de s’orienter vers quelque chose de différent de la norme.
Pour ce qui est « détestable », je ne sais pas si le mot est juste, mais j’ai eu à me frotter à un cactus bien piquant, celui qui découle du modèle mental dominant dans le libre : celui du développeur / ingénieur (homme cis hétérosexuel, éduqué, très souvent valide et entouré de gens qui lui ressemblent bien trop (ce ne sont que des faits démographiques, pas un jugement)) dans son armure de certitudes. Concrètement, je me suis fait empailler un nombre incalculable de fois, notamment sur Mastodon que j’ai laissé tomber pour cette raison, parce que j’avais eu l’audace d’utiliser une solution non-libre tout en osant travailler avec Frama. Il existe deux problèmes à mon sens : le premier relève de l’allégeance au libre qui est souvent interprétée en décalage avec la réalité des choses (l’existence d’intercompatibilité entre des solutions ou pas, le monde du travail, les habitudes, les possibilités financières, physiques, cognitives de chacun·e). Résultat, je suis une « vendue » si un jour j’ai osé publier un lien vers un Google Doc. Sauf que la petite asso sans moyen à qui je file un coup de main n’a pas vraiment eu d’autre choix que de se rabattre sur cette solution, pour des raisons qui sont les siennes et que je ne dois pas me permettre de critiquer (les usages prévalent sur tout, c’est la réalité, même si on aimerait parfois que ce soit différent).
Le deuxième problème est fait d’un mélange de patriarcat bien ancré dans l’informatique mixé au manque quasi-total d’occasions de se remettre en question dont souffrent nombre de personnages dans le libre. Je ne suis pas en train de critiquer des individus, ce serait trop simple et cela effacerait l’aspect systémique du problème. En pratique, cela se traduit en discussions unilatérales où mon interlocuteur est en incapacité d’imaginer que je puisse avoir une autre perception et une autre expérience de la vie que lui, encore moins de reconnaître ses torts. Une fois entrevue la possibilité que je puisse lui mettre le nez dans son étron, il va redoubler d’effort car mieux vaut se défendre que d’avouer ses erreurs. Il y a aussi cette insupportable certitude qu’on est dans la vérité et que toute personne qui fait autrement a foncièrement tort. Une des conséquences c’est l’infini tsunami de conseils non sollicités que moi et mes consœurs nous prenons dans la courge quand on ose émettre la moindre critique de quoi que ce soit sur Internet. Je n’ai pas l’énergie de gérer les egos de ceux qui viennent m’apprendre la vie, alors qu’en faisant l’effort de lire ma bio ou de consacrer quelques secondes à se renseigner sur ce que je publie, ils se seraient vite rendu compte que leur intervention était au mieux inutile, au pire franchement toxique.
Du coup, les libristes, c’est comme un bol de M&M’s. On te dit qu’au milieu du bol, y’en a 2 ou 3 qui sont toxiques du genre mortel, mais qu’on ne sait pas lesquels. Je souhaite bon courage à la personne qui osera en manger. Cela peut expliquer que je perde patience et qu’il m’arrive de bloquer allègrement, ou d’envoyer de bons vieux mèmes féministes pour clore une discussion non sollicitée.
Es-tu une louve solitaire du design et de l’expérience utilisateur dans le monde du libre, ou bien y a-t-il une communauté de UI/UX designers qui ont une affinité avec le libre ?
De plus en plus de consœurs et confrères s’intéressent au libre. Maiwann a commencé bien avant moi ! Je suis loin d’avoir le monopole. Il y a encore un fossé qui nous empêche, nous designers, de vraiment contribuer au libre. On ne s’y sent pas forcément à notre place ou bien accueilli·es. Il faut déjà passer la barrière des outils et méthodes qu’utilisent les libristes pour travailler (GitHub, forums, etc.) et ensuite faire comprendre que nous ne sommes pas juste des peinteresses en bâtiment qui vont pouvoir donner un petit coup de propre à notre vieux Bootstrap UI.
J’essaie de motiver des personnes autour de moi dans l’industrie du design et de l’UX pour contribuer, j’espère que ma présence dans ce milieu va rassurer les gens du libre (non, les designers ne viennent pas tout casser !) et les designers (oui, les gens du libre peuvent écouter !).
Question annexe : je participe à un super projet libre (site Web ou applications pour le Web/ordiphone/ordinateur), mais je suis nul en UX/UI. Vers qui me tourner ? De manière générale, comment aborder cette problématique quand on n’est pas soi-même designer ?
La toute première étape pour aborder la problématique de la conception et de l’expérience d’usage, c’est déjà de se rendre compte qu’on a besoin d’aide 🙂 Ensuite, je dirais qu’intégrer un·e designer le plus tôt possible dans le projet est très important. Comme tu l’as sûrement compris, plus on peut absorber de contraintes, mieux on peut aider.
Il existe plein de ressources pour s’approprier les règles de base afin de créer une interface accessible, lisible, utilisable et logique. Ce n’est pas si dur que ça, promis ! Le tout c’est d’arriver avant la fin du projet où il ne reste plus qu’à « mettre un coup de peinture au Bootstrap« .
En travaillant avec des vidéastes utilisant des plateformes privatrices, as-tu vu des problèmes impossibles à résoudre pour eux (pour le moment) avec les logiciels libres et/ou PeerTube ? (Je pose cette question parce que j’ai récemment lu un article de Robin Wong expliquant qu’il devait publier deux vidéos sur YouTube chaque semaine sous peine de disparaître des écrans, la faute à un algorithme secret et féroce… et j’ai trouvé ça particulièrement triste et aimerais bien qu’il existe une solution libre pour éviter cela)
Il existe nombre de problématiques d’usage pour lesquelles le logiciel libre ne pourra pas grand chose. Avec Mobilizon, par exemple, on s’est frotté·es au phénomène du « no-show« , ou de ces personnes qui prennent une place pour un événement, pour finalement ne pas y venir. C’est un grand classique pour toute personne qui organise des événements, et ça peut être très difficile de gérer la logistique derrière. Cela implique des questionnements sur le nombre de bouteilles de jus de fruit à prévoir jusqu’à la taille même de la salle à louer. C’est un souci humain, et on aura beau se creuser la tête et ajouter tout un tas de petite fonctionnalités pour inciter au maximum ces personnes à céder leur place réservée si elles ne viennent pas, l’informatique a ses limites.
Pour la rémunération, ce ne sont pas les logiciels libres qui vont faire office de solution
Pour ce qui est de la vidéo, il est clair que deux forces jouent en la défaveur des vidéastes : le modèle financier imposé par les plateformes, et les algorithmes qui changent en permanence la donne sur ce qui sera promu et pourquoi. Pour la rémunération, ce ne sont pas les logiciels libres qui vont faire office de solution. C’est à nous de nous poser la question, de manière politique, en décortiquant qui rémunère qui, en fonction de quoi, et en décidant collectivement de nouvelles manières de faire en s’affranchissant des plateformes. Pour le coup des algorithmes de sélection de contenu, ils existent pour un seul objectif : forcer les créatrices et créateurs de contenu à payer pour être vues. Le dommage collatéral terrible, c’est qu’ils les forcent aussi à standardiser ce qu’elles produisent, depuis la tronche de l’image de prévisualisation jusqu’au rythme de publication. Ce diktat est très inconfortable pour elles, et je les comprends. Mais de là à abandonner une audience en apparence captive et une plateforme qui te rémunère sans que tes fans n’aient à débourser un seul euro (ou en tout cas c’est ce dont on a l’impression), il y a un fossé à survoler avant d’y arriver.
La transition vers de nouveaux modèles de publication et de rémunération est loin d’être facile, ni rapide. C’est à nous de promouvoir des modèles alternatifs et toute la pédagogie qui va autour, en ne perdant pas de vue que les logiciels en eux-mêmes ne sont pas une fin.
Quel(s) conseil(s) donnerais-tu aux créateurs de logiciels libres pour obtenir de bons retours qui leur permettent d’améliorer leurs logiciels et de les rendre plus accessibles (pas seulement en termes d’accessibilité comme on l’entend sur le Web, mais tout simplement pour qu’ils soit utiles au plus grand nombre).
Il y a deux niveaux sur lesquels agir :
la stratégie de conception du logiciel,
son apparence, son utilisabilité et son accessibilité.
Pour le deuxième niveau (le plus simple pour commencer), il existe de nombreuses ressources pour s’auto-former en bases du graphisme : la théorie des couleurs, les contrastes, les principes du design visuel, les heuristiques d’utilisabilité d’interface (en anglais), parmi tant d’autres. Rien qu’avec ces basiques, on peut éviter énormément d’erreurs d’UI (apparence de l’interface) ou d’UX (comment l’interface fonctionne et s’enchaîne avec le reste d’un flow).
Il est également possible de faire un peu de « guérilla UX » à moindre frais. La méthode la plus simple consiste à interroger des utilisatrices ou utilisateurs de votre logiciel, voire carrément d’organiser une petite session de partage d’écran, de leur demander d’accomplir telle ou telle action, et de les observer en silence : frissons garantis ! Vous en apprendrez énormément sur la manière dont les personnes utilisent votre logiciel, sur les objectifs qu’elles cherchent à remplir avec, et sur les modèles mentaux qu’elles utilisent et que vous n’aviez pas imaginés.
En ce qui concerne la stratégie de conception, c’est un peu plus compliqué. La remettre en question demande une certaine maturité sur le projet, et l’acceptation qu’il est possible qu’on se soit trompé à la base… Jamais agréable. Ensuite, c’est un long travail à faire que de revenir aux origines de l’usage de votre logiciel. Étudier le besoin original, explorer ce besoin pour voir quel périmètre d’usage choisir, pour quels objectifs, pour promouvoir quelles valeurs, puis comment structurer la conception pour appliquer ces valeurs à l’ensemble des décisions prises. C’est ce qu’on appelle l’assistance à maîtrise d’usage, et c’est ce à quoi je passe la plupart de mon temps. Là, c’est un peu plus difficile de s’auto-former. J’essaie, dans la mesure du temps que je peux dégager, de donner des coups de main à droite à gauche pour débloquer ce genre de situations. C’est ce qu’on avait fait avec Marien sur Lessy, par exemple.
Des recommandations de lectures ou de visionnages pour en découvrir plus sur ton métier et sur les bonnes pratiques de UI/UX en général ?
Le Fediverse et l’avenir des réseaux décentralisés
Le Fediverse est un réseau social multiforme qui repose sur une fédération de serveurs interconnectés. C’est un phénomène assez jeune encore, mais dont la croissance suscite déjà l’intérêt et des questionnements. Parmi les travaux d’analyse qui s’efforcent de prendre une distance critique, nous vous proposons « Sept thèses sur le Fediverse et le devenir du logiciel libre »
Cette traduction Framalang vous arrive aujourd’hui avec presque un an de retard. Le document était intégralement traduit par l’équipe de Framalang dès le printemps 2020, mais nous avons tergiversé sur sa publication, car nous souhaitions un support différent du blog, où les contributions auraient pu se répondre. Mais entre le premier confinement et d’autres projets qui sont venus s’intercaler… Cependant le débat reste possible, non seulement les commentaires sont ouverts (et modérés) comme d’habitude, mais nous serions ravis de recueillir d’autres contributions qui voudraient s’emparer du thème du Fediverse pour apporter un nouvel éclairage sur ce phénomène encore jeune et en devenir. N’hésitez pas à publier votre analyse sur un blog personnel ou à défaut, ici même si vous le souhaitez.
Référence : Aymeric Mansoux et Roel Roscam Abbing, « Seven Theses on the Fediverse and the becoming of FLOSS », dans Kristoffer Gansing et Inga Luchs (éds.), The Eternal Network. The Ends and Becomings of Network Culture, Institute of Network Cultures, Amsterdam, 2020, p. 124-140. En ligne.
Ces dernières années, dans un contexte de critiques constantes et de lassitude généralisée associées aux plates-formes de médias sociaux commerciaux1, le désir de construire des alternatives s’est renforcé. Cela s’est traduit par une grande variété de projets animés par divers objectifs. Les projets en question ont mis en avant leurs différences avec les médias sociaux des grandes plates-formes, que ce soit par leur éthique, leur structure, les technologies qui les sous-tendent, leurs fonctionnalités, l’accès au code source ou encore les communautés construites autour d’intérêts spécifiques qu’ils cherchent à soutenir. Bien que diverses, ces plates-formes tendent vers un objectif commun : remettre clairement en question l’asservissement à une plate-forme unique dans le paysage des médias sociaux dominants. Par conséquent, ces projets nécessitent différents niveaux de décentralisation et d’interopérabilité en termes d’architecture des réseaux et de circulation de données. Ces plates-formes sont regroupées sous le terme de « Fédiverse », un mot-valise composé de « Fédération » et « univers ». La fédération est un concept qui vient de la théorie politique par lequel divers acteurs qui se constituent en réseau décident de coopérer tous ensemble. Les pouvoirs et responsabilités sont distribués à mesure que se forme le réseau. Dans le contexte des médias sociaux, les réseaux fédérés sont portés par diverses communautés sur différents serveurs qui peuvent interagir mutuellement, plutôt qu’à travers un logiciel ou une plate-forme unique. Cette idée n’est pas nouvelle, mais elle a récemment gagné en popularité et a réactivé les efforts visant à construire des médias sociaux alternatifs2.
Les tentatives précédentes de créer des plates-formes de médias sociaux fédérés venaient des communautés FLOSS (Free/Libre and Open Source software, les logiciels libres et open source3) qui avaient traditionnellement intérêt à procurer des alternatives libres aux logiciels propriétaires et privateurs dont les sources sont fermées. En tant que tels, ces projets se présentaient en mettant l’accent sur la similarité de leurs fonctions avec les plates-formes commerciales tout en étant réalisés à partir de FLOSS. Principalement articulées autour de l’ouverture des protocoles et du code source, ces plates-formes logicielles ne répondaient aux besoins que d’une audience modeste d’utilisateurs et de développeurs de logiciels qui étaient en grande partie concernés par les questions typiques de la culture FLOSS.
La portée limitée de ces tentatives a été dépassée en 2016 avec l’apparition de Mastodon, une combinaison de logiciels client et serveur pour les médias sociaux fédérés. Mastodon a été rapidement adopté par une communauté diversifiée d’utilisateurs et d’utilisatrices, dont de nombreuses personnes habituellement sous-représentées dans les FLOSS : les femmes, les personnes de couleur et les personnes s’identifiant comme LGBTQ+. En rejoignant Mastodon, ces communautés moins représentées ont remis en question la dynamique des environnements FLOSS existants ; elles ont également commencé à contribuer autant au code qu’à la contestation du modèle unique dominant des médias sociaux commerciaux dominants. Ce n’est pas une coïncidence si ce changement s’est produit dans le sillage du Gamergate4 en 2014, de la montée de l’alt-right et des élections présidentielles américaines de 2016. Fin 2017, Mastodon a dépassé le million d’utilisateurs qui voulaient essayer le Fédiverse comme une solution alternative aux plates-formes de médias sociaux commerciaux. Ils ont pu y tester par eux-mêmes si une infrastructure différente peut ou non conduire à des discours, des cultures et des espaces sûrs (safe spaces) différents.
Aujourd’hui, le Fédiverse comporte plus de 3,5 millions de comptes répartis sur près de 5 000 serveurs, appelés « instances », qui utilisent des projets logiciels tels que Friendica, Funkwhale, Hubzilla, Mastodon, Misskey, PeerTube, PixelFed et Pleroma, pour n’en citer que quelques-uns5. La plupart de ces instances peuvent être interconnectées et sont souvent focalisées sur une pratique, une idéologie ou une activité professionnelle spécifique. Dans cette optique, le projet Fédiverse démontre qu’il est non seulement techniquement possible de passer de gigantesques réseaux sociaux universels à de petites instances interconnectées, mais qu’il répond également à un besoin concret.
On peut considérer que la popularité actuelle du Fédiverse est due à deux tendances conjointes. Tout d’abord, le désir d’opérer des choix techniques spécifiques pour résoudre les problèmes posés par les protocoles fermés et les plates-formes propriétaires. Deuxièmement, une volonté plus large des utilisateurs de récupérer leur souveraineté sur les infrastructures des médias sociaux. Plus précisément, alors que les plates-formes de médias sociaux commerciaux ont permis à beaucoup de personnes de publier du contenu en ligne, le plus grand impact du Web 2.0 a été le découplage apparent des questions d’infrastructure des questions d’organisation sociale. Le mélange de systèmes d’exploitation et de systèmes sociaux qui a donné naissance à la culture du Net6 a été remplacé par un système de permissions et de privilèges limités pour les utilisateurs. Ceux qui s’engagent dans le Fédiverse travaillent à défaire ce découplage. Ils veulent contribuer à des infrastructures de réseau qui soient plus honnêtes quant à leurs idéologies sous-jacentes.
Ces nouvelles infrastructures ne se cachent pas derrière des manipulations d’idées en trompe-l’œil comme l’ouverture, l’accès universel ou l’ingénierie apolitique. Bien qu’il soit trop tôt aujourd’hui pour dire si le Fédiverse sera à la hauteur des attentes de celles et ceux qui la constituent et quel sera son impact à long terme sur les FLOSS, il est déjà possible de dresser la carte des transformations en cours, ainsi que des défis à relever dans ce dernier épisode de la saga sans fin de la culture du Net et de l’informatique. C’est pourquoi nous présentons sept thèses sur le Fédiverse et le devenir des FLOSS, dans l’espoir d’ouvrir le débat autour de certaines des questions les plus urgentes qu’elles soulèvent.
Nous reconnaissons volontiers que toute réflexion sérieuse sur la culture du Net aujourd’hui doit traiter de la question des mèmes d’une façon ou d’une autre. Mais que peut-on ajouter au débat sur les mèmes en 2020 ? Il semble que tout ait déjà été débattu, combattu et exploité jusqu’à la corde par les universitaires comme par les artistes. Que nous reste-t-il à faire sinon nous tenir régulièrement au courant des derniers mèmes et de leur signification ? On oublie trop souvent que de façon cruciale, les mèmes ne peuvent exister ex nihilo. Il y a des systèmes qui permettent leur circulation et leur amplification : les plateformes de médias sociaux.
Les plateformes de médias sociaux ont démocratisé la production et la circulation des mèmes à un degré jamais vu jusqu’alors. De plus, ces plateformes se sont développées en symbiose avec la culture des mèmes sur Internet. Les plateformes de médias sociaux commerciaux ont été optimisées et conçues pour favoriser les contenus aptes à devenir des mèmes. Ces contenus encouragent les réactions et la rediffusion, ils participent à une stratégie de rétention des utilisateurs et de participation au capitalisme de surveillance. Par conséquent, dans les environnements en usage aujourd’hui pour la majeure partie des communications en ligne, presque tout est devenu un mème, ou doit afficher l’aptitude à en devenir un pour survivre — du moins pour être visible — au sein d’un univers de fils d’actualités gouvernés par des algorithmes et de flux contrôlés par des mesures7.
Comme les médias sociaux sont concentrés sur la communication et les interactions, on a complètement sous-estimé la façon dont les mèmes deviendraient bien plus que des vecteurs stratégiquement conçus pour implanter des idées, ou encore des trucs amusants et viraux à partager avec ses semblables. Ils sont devenus un langage, un argot, une collection de signes et de symboles à travers lesquels l’identité culturelle ou sous-culturelle peut se manifester. La circulation de tels mèmes a en retour renforcé certains discours politiques qui sont devenus une préoccupation croissante pour les plateformes. En effet, pour maximiser l’exploitation de l’activité des utilisateurs, les médias sociaux commerciaux doivent trouver le bon équilibre entre le laissez-faire et la régulation.
Ils tentent de le faire à l’aide d’un filtrage algorithmique, de retours d’utilisateurs et de conditions d’utilisation. Cependant, les plateformes commerciales sont de plus en plus confrontées au fait qu’elles ont créé de véritables boites de Pétri permettant à toutes sortes d’opinions et de croyances de circuler sans aucun contrôle, en dépit de leurs efforts visant à réduire et façonner le contenu discursif de leurs utilisateurs en une inoffensive et banale substance compatible avec leur commerce.
Malgré ce que les plateformes prétendent dans leurs campagnes de relations publiques ou lors des auditions des législateurs, il est clair qu’aucun solutionnisme technologique ni aucun travail externalisé et précarisé réalisé par des modérateurs humains traumatisés8 ne les aidera à reprendre le contrôle. En conséquence de l’augmentation de la surveillance menée par les plateformes de médias sociaux commerciaux, tous ceux qui sont exclus ou blessés dans ces environnements se sont davantage intéressés à l’idée de migrer sur d’autres plateformes qu’ils pourraient maîtriser eux-mêmes.
Les raisons incitant à une migration varient. Des groupes LGBTQ+ cherchent des espaces sûrs pour éviter l’intimidation et le harcèlement. Des suprémacistes blancs recherchent des plateformes au sein desquelles leur interprétation de la liberté d’expression n’est pas contestée. Raddle, un clone radicalisé, s’est développé à la suite de son exclusion du forum Reddit original ; à l’extrême-droite, il y a Voat, un autre clone de Reddit9. Ces deux plateformes ont développé leurs propres FLOSS en réponse à leur exclusion.
Au-delà de l’accès au code source, ce qui vaut aux FLOSS la considération générale, on ignore étonnamment l’un des avantages essentiels et historiques de la pratique des FLOSS : la capacité d’utiliser le travail des autres et de s’appuyer sur cette base. Il semble important aujourd’hui de développer le même logiciel pour un public réduit, et de s’assurer que le code source n’est pas influencé par les contributions d’une autre communauté. C’est une évolution récente dans les communautés FLOSS, qui ont souvent défendu que leur travail est apolitique.
C’est pourquoi, si nous nous mettons à évoquer les mèmes aujourd’hui, nous devons parler de ces plateformes de médias sociaux. Nous devons parler de ces environnements qui permettent, pour le meilleur comme pour le pire, une sédimentation du savoir : en effet, lorsqu’un discours spécifique s’accumule en ligne, il attire et nourrit une communauté, via des boucles de rétroaction qui forment des assemblages mémétiques. Nous devons parler de ce processus qui est permis par les Floss et qui en affecte la perception dans le même temps. Les plateformes de médias sociaux commerciaux ont décidé de censurer tout ce qui pourrait mettre en danger leurs affaires, tout en restant ambivalentes quant à leur prétendue neutralité10.
Mais contrairement à l’exode massif de certaines communautés et à leur repli dans la conception de leur propre logiciel, le Fédiverse offre plutôt un vaste système dans lequel les communautés peuvent être indépendantes tout en étant connectées à d’autres communautés sur d’autres serveurs. Dans une situation où la censure ou l’exil en isolement étaient les seules options, la fédération ouvre une troisième voie. Elle permet à une communauté de participer aux échanges ou d’entrer en conflit avec d’autres plateformes tout en restant fidèle à son cadre, son idéologie et ses intérêts.
Dès lors, deux nouveaux scénarios sont possibles : premièrement, une culture en ligne localisée pourrait être mise en place et adoptée dans le cadre de la circulation des conversations dans un réseau de communication partagé. Deuxièmement, des propos mémétiques extrêmes seraient susceptibles de favoriser l’émergence d’une pensée axée sur la dualité amis/ennemis entre instances, au point que les guerres de mèmes et la propagande simplistes seraient remplacés par des guerres de réseaux.
Les concepts d’ouverture, d’universalité, et de libre circulation de l’information ont été au cœur des récits pour promouvoir le progrès technologique et la croissance sur Internet et le Web. Bien que ces concepts aient été instrumentalisés pour défendre les logiciels libres et la culture du libre, ils ont aussi été cruciaux dans le développement des médias sociaux, dont le but consistait à créer des réseaux en constante croissance, pour embarquer toujours davantage de personnes communiquant librement les unes avec les autres. En suivant la tradition libérale, cette approche a été considérée comme favorisant les échanges d’opinion fertiles en fournissant un immense espace pour la liberté d’expression, l’accès à davantage d’informations et la possibilité pour n’importe qui de participer.
Cependant, ces systèmes ouverts étaient également ouverts à leur accaparement par le marché et exposés à la culture prédatrice des méga-entreprises. Dans le cas du Web, cela a conduit à des modèles lucratifs qui exploitent à la fois les structures et le contenu circulant11 dans tout le réseau.
Revenons à la situation actuelle : les médias sociaux commerciaux dirigent la surveillance des individus et prédisent leur comportement afin de les convaincre d’acheter des produits et d’adhérer à des idées politiques. Historiquement, des projets de médias sociaux alternatifs tels que GNU Social, et plus précisément Identi.ca/StatusNet, ont cherché à s’extirper de cette situation en créant des plateformes qui contrevenaient à cette forme particulière d’ouverture sur-commercialisée.
Ils ont créé des systèmes interopérables explicitement opposés à la publicité et au pistage par les traqueurs. Ainsi faisant, ils espéraient prouver qu’il est toujours possible de créer un réseau à la croissance indéfinie tout en distribuant la responsabilité de la détention des données et, en théorie, de fournir les moyens à des communautés variées de s’approprier le code source des plateformes ainsi que de contribuer à la conception du protocole.
C’était en somme la conviction partagée sur le Fédiverse vers 2016. Cette croyance n’a pas été remise en question, car le Fédiverse de l’époque n’avait pas beaucoup dévié du projet d’origine d’un logiciel libre de média social fédéré, lancé une décennie plus tôt.
Par conséquent, le Fédiverse était composé d’une foule très homogène, dont les intérêts recoupaient la technologie, les logiciels libres et les idéologies anti-capitalistes. Cependant, alors que la population du Fédiverse s’est diversifiée lorsque Mastodon a attiré des communautés plus hétérogènes, des conflits sont apparus entre ces différentes communautés. Cette fois, il s’agissait de l’idée même d’ouverture du Fédiverse qui était de plus en plus remise en question par les nouveaux venus. Contribuant à la critique, un appel a émergé de la base d’utilisateurs de Mastodon en faveur de la possibilité de bloquer ou « défédérer » d’autres serveurs du Fédiverse.
Bloquer signifie que les utilisateurs ou les administrateurs de serveurs pouvaient empêcher le contenu d’autres serveurs sur le réseau de leur parvenir. « Défédérer », dans ce sens, est devenu une possibilité supplémentaire dans la boîte à outils d’une modération communautaire forte, qui permettait de ne plus être confronté à du contenu indésirable ou dangereux. Au début, l’introduction de la défédération a causé beaucoup de frictions parmi les utilisateurs d’autres logiciels du Fédiverse. Les plaintes fréquentes contre Mastodon qui « cassait la fédération » soulignent à quel point ce changement était vu comme une menace pour le réseau tout entier12. Selon ce point de vue, plus le réseau pouvait grandir et s’interconnecter, plus il aurait de succès en tant qu’alternative aux médias sociaux commerciaux. De la même manière, beaucoup voyaient le blocage comme une contrainte sur les possibilités d’expression personnelle et d’échanges d’idées constructifs, craignant qu’il s’ensuive l’arrivée de bulles de filtres et d’isolement de communautés.
En cherchant la déconnexion sélective et en contestant l’idée même que le débat en ligne est forcément fructueux, les communautés qui se battaient pour la défédération ont aussi remis en cause les présupposés libéraux sur l’ouverture et l’universalité sur lesquels les logiciels précédents du Fédiverse étaient construits. Le fait qu’en parallèle à ces développements, le Fédiverse soit passé de 200 000 à plus de 3,5 millions de comptes au moment d’écrire ces lignes, n’est probablement pas une coïncidence. Plutôt que d’entraver le réseau, la défédération, les communautés auto-gouvernées et le rejet de l’universalité ont permis au Fédiverse d’accueillir encore plus de communautés. La présence de différents serveurs qui représentent des communautés si distinctes qui ont chacune leur propre culture locale et leur capacité d’action sur leur propre partie du réseau, sans être isolée de l’ensemble plus vaste, est l’un des aspects les plus intéressants du Fédiverse. Cependant, presque un million du nombre total de comptes sont le résultat du passage de la plateforme d’extrême-droite Gab aux protocoles du Fédiverse, ce qui montre que le réseau est toujours sujet à la captation et à la domination par une tierce partie unique et puissante13. Dans le même temps, cet événement a immédiatement déclenché divers efforts pour permettre aux serveurs de contrer ce risque de domination.
Par exemple, la possibilité pour certaines implémentations de serveurs de se fédérer sur la base de listes blanches, qui permettent aux serveurs de s’interconnecter au cas par cas, au lieu de se déconnecter au cas par cas. Une autre réponse qui a été proposée consistait à étendre le protocole ActivityPub, l’un des protocoles les plus populaires et discutés du Fédiverse, en ajoutant des méthodes d’autorisation plus fortes à base d’un modèle de sécurité informatique qui repose sur la capacité des objets (Object-capability model). Ce modèle permet à un acteur de retirer, a posteriori, la possibilité à d’autres acteurs de voir ou d’utiliser ses données. Ce qui est unique à propos du Fédiverse c’est cette reconnaissance à la fois culturelle et technique que l’ouverture a ses limites, et qu’elle est elle-même ouverte à des interprétations plus ou moins larges en fonction du contexte, qui n’est pas fixe dans le temps. C’est un nouveau point de départ fondamental pour imaginer de nouveaux médias sociaux.
Comme nous l’avons établi précédemment, une des caractéristiques du Fédiverse tient aux différentes couches logicielles et applications qui la constituent et qui peuvent virtuellement être utilisées par n’importe qui et dans n’importe quel but. Cela signifie qu’il est possible de créer une communauté en ligne qui peut se connecter au reste du Fédiverse mais qui opère selon ses propres règles, sa propre ligne de conduite, son propre mode d’organisation et sa propre idéologie. Dans ce processus, chaque communauté est capable de se définir elle-même non plus uniquement par un langage mémétique, un intérêt, une perspective commune, mais aussi par ses relations aux autres, en se différenciant. Une telle spécificité peut faire ressembler le Fédiverse à un assemblage d’infrastructures qui suivrait les principes du pluralisme agonistique. Le pluralisme agonistique, ou agonisme, a d’abord été conçu par Ernesto Laclau et Chantal Mouffe, qui l’ont par la suite développé en une théorie politique. Pour Mouffe, à l’intérieur d’un ordre hégémonique unique, le consensus politique est impossible. Une négativité radicale est inévitable dans un système où la diversité se limite à des groupes antagonistes14.
La thèse de Mouffe s’attaque aux systèmes démocratiques où les politiques qui seraient en dehors de ce que le consensus libéral juge acceptable sont systématiquement exclues. Toutefois, ce processus est aussi à l’œuvre sur les plateformes de médias sociaux commerciaux, dans le sens où ces dernières forment et contrôlent le discours pour qu’il reste acceptable par le paradigme libéral, et qu’il s’aligne sur ses propres intérêts commerciaux. Ceci a conduit à une radicalisation de celles et ceux qui en sont exclus.
Le pari fait par l’agonisme est qu’en créant un système dans lequel un pluralisme d’hégémonies est permis, il devienne possible de passer d’une conception de l’autre en tant qu’ennemi à une conception de l’autre en tant qu’adversaire politique. Pour que cela se produise, il faut permettre à différentes idéologies de se matérialiser par le biais de différents canaux et plateformes. Une condition préalable importante est que l’objectif du consensus politique doit être abandonné et remplacé par un consensus conflictuel, dans lequel la reconnaissance de l’autre devient l’élément de base des nouvelles relations, même si cela signifie, par exemple, accepter des points de vue non occidentaux sur la démocratie, la laïcité, les communautés et l’individu.
Pour ce qui est du Fédiverse, il est clair qu’il contient déjà un paysage politique relativement diversifié et que les transitions du consensus politique au consensus conflictuel peuvent être constatées au travers de la manière dont les communautés se comportent les unes envers les autres. À la base de ces échanges conflictuels se trouvent divers points de vue sur la conception et l’utilisation collectives de toutes les couches logicielles et des protocoles sous-jacents qui seraient nécessaires pour permettre une sorte de pluralisme agonistique en ligne.
Cela dit, les discussions autour de l’usage susmentionné du blocage d’instance et de la défédération sont férocement débattues, et, au moment où nous écrivons ces lignes, avec la présence apparemment irréconciliable de factions d’extrême gauche et d’extrême droite dans l’univers de la fédération, les réalités de l’antagonisme seront très difficiles à résoudre. La conception du Fédiverse comme système dans lequel les différentes communautés peuvent trouver leur place parmi les autres a été concrètement mise à l’épreuve en juillet 2019, lorsque la plateforme explicitement d’extrême droite, Gab, a annoncé qu’elle modifierait sa base de code, s’éloignant de son système propriétaire pour s’appuyer plutôt sur le code source de Mastodon.
En tant que projet qui prend explicitement position contre l’idéologie de Gab, Mastodon a été confronté à la neutralité des licences FLOSS. D’autres projets du Fédiverse, tels que les clients de téléphonie mobile FediLab et Tusky, ont également été confrontés au même problème, peut-être même plus, car la motivation directe des développeurs de Gab pour passer aux logiciels du Fédiverse était de contourner leur interdiction des app stores d’Apple et de Google pour violation de leurs conditions de service. En s’appuyant sur les clients génériques de logiciels libres du Fédiverse, Gab pourrait échapper à de telles interdictions à l’avenir, et aussi forger des alliances avec d’autres instances idéologiquement compatibles sur le Fédiverse15.
Dans le cadre d’une stratégie antifasciste plus large visant à dé-plateformer et à bloquer Gab sur le Fédiverse, des appels ont été lancés aux développeurs de logiciels pour qu’ils ajoutent du code qui empêcherait d’utiliser leurs clients pour se connecter aux serveurs Gab. Cela a donné lieu à des débats approfondis sur la nature des logiciels libres et open source, sur l’efficacité de telles mesures quant aux modifications du code source public, étant donné qu’elles peuvent être facilement annulées, et sur le positionnement politique des développeurs et mainteneurs de logiciels.
Au cœur de ce conflit se trouve la question de la neutralité du code, du réseau et des protocoles. Un client doit-il – ou même peut-il – être neutre ? Le fait de redoubler de neutralité signifie-t-il que les mainteneurs tolèrent l’idéologie d’extrême-droite ? Que signifie bloquer ou ne pas bloquer une autre instance ? Cette dernière question a créé un va-et-vient compliqué où certaines instances demanderont à d’autres instances de prendre part explicitement au conflit, en bloquant d’autres instances spécifiques afin d’éviter d’être elles-mêmes bloquées. La neutralité, qu’elle soit motivée par l’ambivalence, le soutien tacite, l’hypocrisie, le désir de troller, le manque d’intérêt, la foi dans une technologie apolitique ou par un désir agonistique de s’engager avec toutes les parties afin de parvenir à un état de consensus conflictuel… la neutralité donc est très difficile à atteindre. Le Fédiverse est l’environnement le plus proche que nous ayons actuellement d’un réseau mondial diversifié de singularités locales. Cependant, sa topologie complexe et sa lutte pour faire face au tristement célèbre paradoxe de la tolérance – que faire de l’idée de liberté d’expression ? – montre la difficulté d’atteindre un état de consensus conflictuel. Elle montre également le défi que représente la traduction d’une théorie de l’agonisme en une stratégie partagée pour la conception de protocoles, de logiciels et de directives communautaires. La tolérance et la liberté d’expression sont devenues des sujets explosifs après près de deux décennies de manipulation politique et de filtrage au sein des médias sociaux des grandes entreprises ; quand on voit que les plateformes et autres forums de discussion populaires n’ont pas réussi à résoudre ces problèmes, on n’est guère enclin à espérer en des expérimentations futures.
Plutôt que d’atteindre un état de pluralisme agonistique, il se pourrait que le Fédiverse crée au mieux une forme d’agonisme bâtard par le biais de la pilarisation. En d’autres termes, nous pourrions assister à une situation dans laquelle des instances ne formeraient de grandes agrégations agonistes-sans-agonisme qu’entre des communautés et des logiciels compatibles tant sur le plan idéologique que technique, seule une minorité d’entre elles étant capable et désireuse de faire le pont avec des systèmes radicalement opposés. Quelle que soit l’issue, cette question de l’agonisme et de la politique en général est cruciale pour la culture du réseau et de l’informatique. Dans le contexte des systèmes post-politiques occidentaux et de la manière dont ils prennent forme sur le net, un sentiment de déclin de l’esprit partisan et de l’action militante politique a donné l’illusion, ou plutôt la désillusion, qu’il n’y a plus de boussole politique. Si le Fédiverse nous apprend quelque chose, c’est que le réseau et les composants de logiciel libres de son infrastructure n’ont jamais été aussi politisés qu’aujourd’hui. Les positions politiques qui sont générées et hébergées sur le Fédiverse ne sont pas insignifiantes, mais sont clairement articulées. De plus, comme le montre la prolifération de célébrités politiques et de politiciens utilisant activement les médias sociaux, une nouvelle forme de démocratie représentative émerge, dans laquelle le langage mémétique des cultures post-numériques se déplace effectivement dans le monde de la politique électorale et inversement16.
Par le passé, les débats sur les risques des médias sociaux commerciaux se sont focalisés sur les questions de vie privée et de surveillance, surtout depuis les révélations de Snowden en 2013. Par conséquent, de nombreuses réponses techniques, en particulier celles issues des communautés FLOSS, se sont concentrées sur la sécurité des traitements des données personnelles. Cela peut être illustré par la multiplication des applications de messagerie et de courrier électronique chiffrées post-Snowden17. La menace perçue par ces communautés est la possibilité de surveillance du réseau, soit par des agences gouvernementales, soit par de grandes entreprises.
Les solutions proposées sont donc des outils qui implémentent un chiffrement fort à la fois dans le contenu et dans la transmission du message en utilisant idéalement des topologies de réseaux de pair à pair qui garantissent l’anonymat. Ces approches, malgré leur rigueur, requièrent des connaissances techniques considérables de la part des utilisateurs.
Le Fédiverse bascule alors d’une conception à dominante technique vers une conception plus sociale de la vie privée, comme l’ont clairement montré les discussions qui ont eu lieu au sein de l’outil de suivi de bug de Mastodon, lors de ces premières étapes de développement. Le modèle de menace qui y est discuté comprend les autres utilisateurs du réseau, les associations accidentelles entre des comptes et les dynamiques des conversations en ligne elles-mêmes. Cela signifie qu’au lieu de se concentrer sur des caractéristiques techniques telles que les réseaux de pair à pair et le chiffrement de bout en bout, le développement a été axé sur la construction d’outils de modération robustes, sur des paramétrages fins de la visibilité des messages et sur la possibilité de bloquer d’autres instances.
Ces fonctionnalités, qui favorisent une approche plus sociale de la protection de la vie privée, ont été développées et défendues par les membres des communautés marginalisées, dont une grande partie se revendique comme queer. Comme le note Sarah Jamie Lewis :
Une grande partie de la rhétorique actuelle autour des […] outils de protection de la vie privée est axée sur la surveillance de l’État. Les communautés LGBTQI+ souhaitent parfois cacher des choses à certains de leurs parents et amis, tout en pouvant partager une partie de leur vie avec d’autres. Se faire des amis, se rencontrer, échapper à des situations violentes, accéder à des services de santé, s’explorer et explorer les autres, trouver un emploi, pratiquer le commerce du sexe en toute sécurité… sont autant d’aspects de la vie de cette communauté qui sont mal pris en compte par ceux qui travaillent aujourd’hui sur la protection de la vie privée18.
Alors que tout le monde a intérêt à prendre en compte les impacts sur la vie privée d’interactions (non sollicitées) entre des comptes d’utilisateurs, par exemple entre un employeur et un employé, les communautés marginalisées sont affectées de manière disproportionnée par ces formes de surveillance et leurs conséquences. Lorsque la conception de nouvelles plateformes sur le Fédiverse comme Mastodon a commencé — avec l’aide de membre de ces communautés — ces enjeux ont trouvé leur place sur les feuilles de route de développement des logiciels. Soudain, les outils de remontée de défauts techniques sont également devenus un lieu de débat de questions sociales, culturelles et politiques. Nous reviendrons sur ce point dans la section six.
Les technologies qui ont finalement été développées comprennent le blocage au niveau d’une instance, des outils de modérations avancés, des avertissements sur la teneur des contenus et une meilleure accessibilité. Cela a permis à des communautés géographiquement, culturellement et idéologiquement disparates de partager le même réseau selon leurs propres conditions. De ce fait, le Fédiverse peut être compris comme un ensemble de communautés qui se rallient autour d’un serveur, ou une instance, afin de créer un environnement où chacun se sent à l’aise. Là encore, cela constitue une troisième voie : ni un modèle dans lequel seuls ceux qui ont des aptitudes techniques maîtrisent pleinement leurs communications, ni un scénario dans lequel la majorité pense n’avoir « rien à cacher » simplement parce qu’elle n’a pas son mot à dire ni le contrôle sur les systèmes dont elle est tributaire. En effet, le changement vers une perception sociale de la vie privée a montré que le Fédiverse est désormais un laboratoire dans lequel on ne peut plus prétendre que les questions d’organisation sociale et de gouvernance sont détachées des logiciels.
Ce qui compte, c’est que le Fédiverse marque une évolution de la définition des questions de surveillance et de protection de la vie privée comme des problématiques techniques vers leur formulation en tant qu’enjeux sociaux. Cependant, l’accent mis sur la dimension sociale de la vie privée s’est jusqu’à présent limité à placer sa confiance dans d’autres serveurs et administrateurs pour qu’ils agissent avec respect.
Cela peut être problématique dans le cas par exemple des messages directs (privés), par leur confidentialité inhérente, qui seraient bien mieux gérés avec des solutions techniques telles que le chiffrement de bout en bout. De plus, de nombreuses solutions recherchées dans le développement des logiciels du Fédiverse semblent être basées sur le collectif plutôt que sur l’individu. Cela ne veut pas dire que les considérations de sécurité technique n’ont aucune importance. Les serveurs du Fédiverse ont tendance à être équipés de paramètres de « confidentialité par défaut », tels que le nécessaire chiffrement de transport et le proxy des requêtes distantes afin de ne pas exposer les utilisateurs individuels.
Néanmoins, cette évolution vers une approche sociale de la vie privée n’en est qu’à ses débuts, et la discussion doit se poursuivre sur de nombreux autres plans.
Les grandes plateformes de médias sociaux, qui se concentrent sur l’utilisation de statistiques pour récompenser leur usage et sur la gamification, sont tristement célèbres pour utiliser autant qu’elles le peuvent le travail gratuit. Quelle que soit l’information introduite dans le système, elle sera utilisée pour créer directement ou indirectement des modélisations, des rapports et de nouveaux jeux de données qui possèdent un intérêt économique fondamental pour les propriétaires de ces plateformes : bienvenue dans le monde du capitalisme de surveillance19.
Jusqu’à présent il a été extrêmement difficile de réglementer ces produits et services, en partie à cause du lobbying intense des propriétaires de plateformes et de leurs actionnaires, mais aussi et peut-être de façon plus décisive, à cause de la nature dérivée de la monétisation qui est au cœur des entreprises de médias sociaux. Ce qui est capitalisé par ces plateformes est un sous-produit algorithmique, brut ou non, de l’activité et des données téléchargées par ses utilisateurs et utilisatrices. Cela crée un fossé qui rend toujours plus difficile d’appréhender la relation entre le travail en ligne, le contenu créé par les utilisateurs, le pistage et la monétisation.
Cet éloignement fonctionne en réalité de deux façons. D’abord, il occulte les mécanismes réels qui sont à l’œuvre, ce qui rend plus difficile la régulation de la collecte des données et leur analyse. Il permet de créer des situations dans lesquelles ces plateformes peuvent développer des produits dont elles peuvent tirer profit tout en respectant les lois sur la protection de la vie privée de différentes juridictions, et donc promouvoir leurs services comme respectueux de la vie privée. Cette stratégie est souvent renforcée en donnant à leurs utilisatrices et utilisateurs toutes sortes d’options pour les induire en erreur et leur faire croire qu’ils ont le contrôle de ce dont ils alimentent la machine.
Ensuite, en faisant comme si aucune donnée personnelle identifiable n’était directement utilisée pour être monétisée ; ces plateformes dissimulent leurs transactions financières derrière d’autres sortes de transactions, comme les interactions personnelles entre utilisatrices, les opportunités de carrière, les groupes et discussion gérés par des communautés en ligne, etc. Au bout du compte, les utilisateurs s’avèrent incapables de faire le lien entre leur activité sociale ou professionnelle et son exploitation, parce tout dérive d’autres transactions qui sont devenues essentielles pour nos vies connectées en permanence, en particulier à l’ère de l’« entrepecariat » et de la connectivité quasi obligatoire au réseau.
Nous l’avons vu précédemment : l’approche sociale de la vie privée en ligne a influencé la conception initiale de Mastodon, et le Fédiverse offre une perspective nouvelle sur le problème du capitalisme de surveillance. La question de l’usage des données des utilisateurs et utilisatrices et la façon dont on la traite, au niveau des protocoles et de l’interface utilisateur, sont des points abordés de façon transparente et ouverte. Les discussions se déroulent publiquement à la fois sur le Fédiverse et dans les plateformes de suivi du logiciel. Les utilisateurs expérimentés du Fédiverse ou l’administratrice locale d’un groupe Fédiverse, expliquent systématiquement aux nouveaux utilisateurs la façon dont les données circulent lorsqu’ils rejoignent une instance.
Cet accueil permet généralement d’expliquer comment la fédération fonctionne et ce que cela implique concernant la visibilité et l’accès aux données partagées par ces nouveaux utilisateurs21. Cela fait écho à ce que Robert Gehl désigne comme une des caractéristiques des plateformes de réseaux sociaux alternatifs. Le réseau comme ses coulisses ont une fonction pédagogique. On indique aux nouvelles personnes qui s’inscrivent comment utiliser la plateforme et chacun peut, au-delà des permissions utilisateur limitées, participer à son développement, à son administration et à son organisation22. En ce sens, les utilisateurs et utilisatrices sont incitées par le Fédiverse à participer activement, au-delà de simples publications et « likes » et sont sensibilisés à la façon dont leurs données circulent.
Pourtant, quel que soit le niveau d’organisation, d’autonomie et d’implication d’une communauté dans la maintenance de la plateforme et du réseau (au passage, plonger dans le code est plus facile à dire qu’à faire), rien ne garantit un plus grand contrôle sur les données personnelles. On peut facilement récolter et extraire des données de ces plateformes et cela se fait plus facilement que sur des réseaux sociaux privés. En effet, les services commerciaux des réseaux sociaux privés protègent activement leurs silos de données contre toute exploitation extérieure.
Actuellement, il est très facile d’explorer le Fédiverse et d’analyser les profils de ses utilisatrices et utilisateurs. Bien que la plupart des plateformes du Fédiverse combattent le pistage des utilisateurs et la collecte de leurs données, des tiers peuvent utiliser ces informations. En effet, le Fédiverse fonctionne comme un réseau ouvert, conçu à l’origine pour que les messages soient publics. De plus, étant donné que certains sujets, notamment des discussions politiques, sont hébergées sur des serveurs spécifiques, les communautés de militant⋅e⋅s peuvent être plus facilement exposées à la surveillance. Bien que le Fédiverse aide les utilisateurs à comprendre, ou à se rappeler, que tout ce qui est publié en ligne peut échapper et échappera à leur contrôle, elle ne peut pas empêcher toutes les habitudes et le faux sentiment de sécurité hérités des réseaux sociaux commerciaux de persister, surtout après deux décennies de désinformation au sujet de la vie privée numérique23.
De plus, bien que l’exploitation du travail des utilisateurs et utilisatrices ne soit pas la même que sur les plateformes de médias sociaux commerciaux, il reste sur ce réseau des problèmes autour de la notion de travail. Pour les comprendre, nous devons d’abord admettre les dégâts causés, d’une part, par la merveilleuse utilisation gratuite des réseaux sociaux privés, et d’autre part, par la mécompréhension du fonctionnement des logiciels libres ou open source : à savoir, la manière dont la lutte des travailleurs et la question du travail ont été masquées dans ces processus24.
Cette situation a incité les gens à croire que le développement des logiciels, la maintenance des serveurs et les services en ligne devraient être mis gratuitement à leur disposition. Les plateformes de média sociaux commerciaux sont justement capables de gérer financièrement leurs infrastructures précisément grâce à la monétisation des contenus et des activités de leurs utilisateurs. Dans un système où cette méthode est évitée, impossible ou fermement rejetée, la question du travail et de l’exploitation apparaît au niveau de l’administration des serveurs et du développement des logiciels et concerne tous celles et ceux qui contribuent à la conception, à la gestion et à la maintenance de ces infrastructures.
Pour répondre à ce problème, la tendance sur le Fédiverse consiste à rendre explicites les coûts de fonctionnement d’un serveur communautaire. Tant les utilisatrices que les administrateurs encouragent le financement des différents projets par des donations, reconnaissant ainsi que la création et la maintenance de ces plateformes coûtent de l’argent. Des projets de premier plan comme Mastodon disposent de davantage de fonds et ont mis en place un système permettant aux contributeurs d’être rémunérés pour leur travail25.
Ces tentatives pour compenser le travail des contributeurs sont un pas en avant, cependant étendre et maintenir ces projets sur du long terme demande un soutien plus structurel. Sans financement significatif du développement et de la maintenance, ces projets continueront à dépendre de l’exploitation du travail gratuit effectué par des volontaires bien intentionnés ou des caprices des personnes consacrant leur temps libre au logiciel libre. Dans le même temps, il est de plus en plus admis, et il existe des exemples, que le logiciel libre peut être considéré comme un bien d’utilité publique qui devrait être financé par des ressources publiques26. À une époque où la régulation des médias sociaux commerciaux est débattue en raison de leur rôle dans l’érosion des institutions publiques, le manque de financement public d’alternatives non prédatrices devrait être examiné de manière plus active.
Enfin, dans certains cas, les personnes qui accomplissent des tâches non techniques comme la modération sont rémunérées par les communautés du Fédiverse. On peut se demander pourquoi, lorsqu’il existe une rémunération, certaines formes de travail sont payées et d’autres non. Qu’en est-il par exemple du travail initial et essentiel de prévenance et de critique fourni par les membres des communautés marginalisées qui se sont exprimés sur la façon dont les projets du Fédiverse devraient prendre en compte une interprétation sociale de la protection de la vie privée ? Il ne fait aucun doute que c’est ce travail qui a permis au Fédiverse d’atteindre le nombre d’utilisateurs qu’elle a aujourd’hui.
Du reste comment cette activité peut-elle être évaluée ? Elle se manifeste dans l’ensemble du réseau, dans des fils de méta-discussions ou dans les systèmes de suivi, et n’est donc pas aussi quantifiable ou visible que la contribution au code. Donc, même si des évolutions intéressantes se produisent, il reste à voir si les utilisateurs et les développeuses du Fédiverse peuvent prendre pleinement conscience de ces enjeux et si les modèles économiques placés extérieurs au capitalisme de surveillance peuvent réussir à soutenir une solidarité et une attention sans exploitation sur tous les maillons de la chaîne.
« basket weaving » par cloudberrynine, licence CC BY-NC-ND 2.0
On peut envisager le Fédiverse comme un ensemble de pratiques, ou plutôt un ensemble d’attentes et de demandes concernant les logiciels de médias sociaux, dans lesquels les efforts disparates de projets de médias sociaux alternatifs convergent en un réseau partagé avec des objectifs plus ou moins similaires. Les différents modèles d’utilisation, partagés entre les serveurs, vont de plateformes d’extrême-droite financées par le capital-risque à des systèmes de publication d’images japonaises, en passant par des collectifs anarcho-communistes, des groupes politiques, des amateurs d’algorithmes de codage en direct, des « espaces sûrs » pour les travailleur⋅euse⋅s du sexe, des forums de jardinage, des blogs personnels et des coopératives d’auto-hébergement. Ces pratiques se forment parallèlement au problème du partage des données et du travail gratuit, et font partie de la transformation continuelle de ce que cela implique d’être utilisateur ou utilisatrice de logiciel.
Les premiers utilisateurs de logiciels, ou utilisateurs d’appareils de calcul, étaient aussi leurs programmeuses et programmeurs, qui fournissaient ensuite les outils et la documentation pour que d’autres puissent contribuer au développement et à l’utilisation de ces systèmes27.
Ce rôle était si important que les premières communautés d’utilisateurs furent pleinement soutenues et prises en charge par les fabricants de matériel.
Avance rapide de quelques décennies et, avec la croissance de l’industrie informatique, la notion d’ « utilisateur » a complètement changé pour signifier « consommateur apprivoisé » avec des possibilités limitées de contribution ou de modification des systèmes qu’ils utilisent, au-delà de personnalisations triviales ou cosmétiques. C’est cette situation qui a contribué à façonner une grande partie de la popularité croissante des FLOSS dans les années 90, en tant qu’adversaires des systèmes d’exploitation commerciaux propriétaires pour les ordinateurs personnels, renforçant particulièrement les concepts antérieurs de liberté des utilisateurs28. Avec l’avènement du Web 2.0, la situation changea de nouveau. En raison de la dimension communicative et omniprésente des logiciels derrière les plateformes de médias sociaux d’entreprises, les fournisseurs ont commencé à offrir une petite ouverture pour un retour de la part de leurs utilisateurs, afin de rendre leur produit plus attrayant et pertinent au quotidien. Les utilisateurs peuvent généralement signaler facilement les bugs, suggérer de nouvelles fonctionnalités ou contribuer à façonner la culture des plateformes par leurs échanges et le contenu partagés. Twitter en est un exemple bien connu, où des fonctionnalités essentielles, telles que les noms d’utilisateur préfixés par @ et les hashtags par #, ont d’abord été suggérés par les utilisateurs. Les forums comme Reddit permettent également aux utilisateurs de définir et modérer des pages, créant ainsi des communautés distinctes et spécifiques.
Sur les plateformes alternatives de médias sociaux comme le Fédiverse, en particulier à ses débuts, ces formes de participation vont plus loin. Les utilisatrices et utilisateurs ne se contentent pas de signaler des bogues ou d’aider a la création d’une culture des produits, ils s’impliquent également dans le contrôle du code, dans le débat sur ses effets et même dans la contribution au code. À mesure que le Fédiverse prend de l’ampleur et englobe une plus grande diversité de cultures et de logiciels, les comportements par rapport à ses usages deviennent plus étendus. Les gens mettent en place des nœuds supplémentaires dans le réseau, travaillent à l’élaboration de codes de conduite et de conditions de service adaptées, qui contribuent à l’application de lignes directrices communautaires pour ces nœuds. Ils examinent également comment rendre ces efforts durables par un financement via la communauté.
Ceci dit, toutes les demandes de changement, y compris les contributions pleinement fonctionnelles au code, ne sont pas acceptées par les principaux développeurs des plateformes. Cela s’explique en partie par le fait que les plus grandes plateformes du Fédiverse reposent sur des paramètres par défaut, bien réfléchis, qui fonctionnent pour ces majorités diverses, plutôt que l’ancien modèle archétypique de FLOSS, pour permettre une personnalisation poussée et des options qui plaisent aux programmeurs, mais en découragent beaucoup d’autres. Grâce à la disponibilité du code source, un riche écosystème de versions modifiées de projets (des forks) existe néanmoins, qui permet d’étendre ou de limiter certaines fonctionnalités tout en conservant un certain degré de compatibilité avec le réseau plus large.
Les débats sur les mérites des fonctionnalités et des logiciels modifiés qu’elles génèrent nourrissent de plus amples discussions sur l’orientation de ces projets, qui à leur tour conduisent à une attention accrue autour de leur gouvernance.
Il est certain que ces développements ne sont ni nouveaux ni spécifiques au Fédiverse. La manière dont les facilitateurs de services sont soutenus sur le Fédiverse, par exemple, est analogue à la manière dont les créateurs de contenu sur les plateformes de streaming au sein des communautés de jeux sont soutenus par leur public. Des appels à une meilleure gouvernance des projets logiciels sont également en cours dans les communautés FLOSS plus largement. L’élaboration de codes de conduite (un document clé pour les instances de la Fédiverse mis en place pour exposer leur vision de la communauté et de la politique) a été introduit dans diverses communautés FLOSS au début des années 2010, en réponse à la misogynie systématique et à la l’exclusion des minorités des espaces FLOSS à la fois en ligne et hors ligne29. Les codes de conduite répondent également au besoin de formes génératrices de résolution des conflits par-delà les barrières culturelles et linguistiques.
De même, bon nombre des pratiques de modération et de gestion communautaire observées dans le Fédiverse ont hérité des expériences d’autres plateformes, des succès et défaillances d’autres outils et systèmes. La synthèse et la coordination de toutes ces pratiques deviennent de plus en plus visibles dans l’univers fédéré.
En retour, les questions et les approches abordées dans le Fédiverse ont créé un précédent pour d’autres projets des FLOSS, en encourageant des transformations des discussions qui étaient jusqu’alors limitées ou difficiles à engager.
Il n’est pas évident, compte tenu de la diversité des modèles d’utilisation, que l’ensemble du Fédiverse fonctionne suivant cette tendance. Les développements décrits ci-dessus suggèrent cependant que de nombreux modèles d’utilisation restent à découvrir et que le Fédiverse est un environnement favorable pour les tester. La nature évolutive de l’utilisation du Fédiverse montre à quel point l’écart est grand entre les extrêmes stéréotypés du modèle capitaliste de surveillance et du martyre auto-infligé des plateformes de bénévolat. Ce qui a des implications sur le rôle des utilisateurs en relation avec les médias sociaux alternatifs, ainsi que pour le développement de la culture des FLOSS30.
Jusqu’à présent, la grande majorité des discussions autour des licences FLOSS sont restées enfermées dans une comparaison cliché entre l’accent mis par le logiciel libre sur l’éthique de l’utilisateur et l’approche de l’open source qui repose sur l’économie31.
Qu’ils soient motivés par l’éthique ou l’économie, les logiciels libres et les logiciels open source partagent l’idéal selon lequel leur position est supérieure à celle des logiciels fermés et aux modes de production propriétaires. Toutefois, dans les deux cas, le moteur libéral à la base de ces perspectives éthiques et économiques est rarement remis en question. Il est profondément enraciné dans un contexte occidental qui, au cours des dernières décennies, a favorisé la liberté comme le conçoivent les libéraux et les libertariens aux dépens de l’égalité et du social.
Remettre en question ce principe est une étape cruciale, car cela ouvrirait des discussions sur d’autres façons d’aborder l’écriture, la diffusion et la disponibilité du code source. Par extension, cela mettrait fin à la prétention selon laquelle ces pratiques seraient soit apolitiques, soit universelles, soit neutres.
Malheureusement, de telles discussions ont été difficiles à faire émerger pour des raisons qui vont au-delà de la nature dogmatique des agendas des logiciels libres et open source. En fait, elles ont été inconcevables car l’un des aspects les plus importants des FLOSS est qu’ils ont été conçus comme étant de nature non discriminatoire. Par « non discriminatoire », nous entendons les licences FLOSS qui permettent à quiconque d’utiliser le code source des FLOSS à n’importe quelle fin.
Certains efforts ont été faits pour tenter de résoudre ce problème, par exemple au niveau de l’octroi de licences discriminatoires pour protéger les productions appartenant aux travailleurs, ou pour exclure l’utilisation par l’armée et les services de renseignement32.
Ces efforts ont été mal accueillis en raison de la base non discriminatoire des FLOSS et de leur discours. Pis, la principale préoccupation du plaidoyer en faveur des FLOSS a toujours été l’adoption généralisée dans l’administration, l’éducation, les environnements professionnels et commerciaux, et la dépolitisation a été considérée comme la clé pour atteindre cet objectif. Cependant, plus récemment, la croyance en une dépolitisation, ou sa stratégie, ont commencé à souffrir de plusieurs manières.
Tout d’abord, l’apparition de ce nouveau type d’usager a entraîné une nouvelle remise en cause des modèles archétypaux de gouvernance des projets de FLOSS, comme celui du « dictateur bienveillant ». En conséquence, plusieurs projets FLOSS de longue date ont été poussés à créer des structures de compte-rendu et à migrer vers des formes de gouvernance orientées vers la communauté, telles que les coopératives ou les associations.
Deuxièmement, les licences tendent maintenant à être combinées avec d’autres documents textuels tels que les accords de transfert de droits d’auteur, les conditions de service et les codes de conduite. Ces documents sont utilisés pour façonner la communauté, rendre leur cohérence idéologique plus claire et tenter d’empêcher manipulations et malentendus autour de notions vagues comme l’ouverture, la transparence et la liberté.
Troisièmement, la forte coloration politique du code source remet en question la conception actuelle des FLOSS. Comme indiqué précédemment, certains de ces efforts sont motivés par le désir d’éviter la censure et le contrôle des plateformes sociales des entreprises, tandis que d’autres cherchent explicitement à développer des logiciels à usage antifasciste. Ces objectifs interrogent non seulement l’universalité et l’utilité globale des grandes plateformes de médias sociaux, ils questionnent également la supposée universalité et la neutralité des logiciels. Cela est particulièrement vrai lorsque les logiciels présentent des conditions, codes et accords complémentaires explicites pour leurs utilisateurs et les développeuses.
Avec sa base relativement diversifiée d’utilisatrices, de développeurs, d’agenda, de logiciels et d’idéologies, le Fédiverse devient progressivement le système le plus pertinent pour l’articulation de nouvelles formes de la critique des FLOSS. Il est devenu un endroit où les notions traditionnelles sur les FLOSS sont confrontées et révisées par des personnes qui comprennent son utilisation dans le cadre d’un ensemble plus large de pratiques qui remettent en cause le statu quo. Cela se produit parfois dans un contexte de réflexion, à travers plusieurs communautés, parfois par la concrétisation d’expériences et des projets qui remettent directement en question les FLOSS tels que nous les connaissons. C’est devenu un lieu aux multiples ramifications où les critiques constructives des FLOSS et l’aspiration à leur réinvention sont très vives. En l’état, la culture FLOSS ressemble à une collection rapiécée de pièces irréconciliables provenant d’un autre temps et il est urgent de réévaluer nombre de ses caractéristiques qui étaient considérées comme acquises.
Si nous pouvons accepter le sacrilège nécessaire de penser au logiciel libre sans le logiciel libre, il reste à voir ce qui pourrait combler le vide laissé par son absence.
Consulter Geert Lovink, Sad by Design: On Platform Nihilism (Triste par essence: Du nihilisme des plates-formes, non traduit en français), London: Pluto Press, 2019. ↩
Dans tout ce document nous utiliserons « médias sociaux commerciaux » et « médias sociaux alternatifs » selon les définitions de Robert W. Gehl dans « The Case for Alternative Social Media » (Pour des médias sociaux alternatifs, non traduit en français), Social Media + Society, juillet-décembre 2015, p. 1-12. En ligne. ↩
Danyl Strype, « A Brief History of the GNU Social Fediverse and ‘The Federation’ » (Une brève histoire de GNU Social, du Fédiverse et de la ‘fédération’, non traduit en français), Disintermedia, 1er Avril 2017. En ligne. ↩
Pour une exploration du #GamerGate et des technocultures toxiques, consulter Adrienne Massanari, « #Gamergate and The Fappening: How Reddit’s Algorithm, Governance, and Culture Support Toxic Technocultures » (#GamerGate et Fappening : comment les algorithmes, la gouvernance et la culture de Reddit soutiennent les technocultures toxiques, non traduit en français), New Media & Society, 19(3), 2016, p. 329-346. ↩
En raison de la nature décentralisée du Fédiverse, il n’est pas facile d’obtenir les chiffres exacts du nombre d’utilisateurs, mais quelques projets tentent de mesurer la taille du réseau: The Federation ; Fediverse Network ; Mastodon Users, Bitcoin Hackers. ↩
Pour un exemple de ce type de mélange, consulter Michael Rossman, « Implications of Community Memory » (Implications du projet Community Memory, non traduit en français) SIGCAS – Computers & Society, 6(4), 1975, p. 7-10. ↩
Aymeric Mansoux, « Surface Web Times » (L’ère du Web de surface, non traduit en français), MCD, 69, 2013, p. 50-53. ↩
Burcu Gültekin Punsmann, « What I learned from three months of Content Moderation for Facebook in Berlin » (Ce que j’ai appris de trois mois de modération de contenu pour Facebook à Berlin, non traduit en français), SZ Magazin, 6 January 2018. En ligne. ↩
Gabriella Coleman, « The Political Agnosticism of Free and Open Source Software and the Inadvertent Politics of Contrast » (L’agnosticisme politique des FLOSS et la politique involontaire du contraste, non traduit en français), Anthropological Quarterly, 77(3), 2004, p. 507-519. ↩
Pour une discussion plus approfondie sur les multiples possibilités procurés par l’ouverture mais aussi pour un commentaire sur le librewashing, voyez l’article de Jeffrey Pomerantz and Robin Peek, « Fifty Shades of Open », First Monday, 21(5), 2016. En ligne. ↩
Comme exemple d’arguments contre la défédération, voir le commentaire de Kaiser sous l’article du blog de Robek « rw » World : « Mastodon Socal Is THE Twitter Alternative For… », Robek World, 12 janvier 2017. En ligne. ↩
Au moment où Gab a rejoint le réseau, les statistiques du Fédiverse ont augmenté d’environ un million d’utilisateurs. Ces chiffres, comme tous les chiffres d’utilisation du Fédiverse, sont contestés. Pour le contexte, voir John Dougherty et Michael Edison Hayden, « ‘No Way’ Gab has 800,000 Users, Web Host Says », Southern Poverty Law Center, 14 février 2019. En ligne. Et le message sur Mastodon de emsenn le 10 août 2017, 04:51. ↩
Pour une introduction exhaustive aux écrits de Chantal Mouffe, voir Chantal Mouffe, Agonistique : penser politiquement le monde, Paris, Beaux-Arts de Paris éditions, 2014. On lira aussi avec profit la page Wikipédia consacrée à l’agonisme. ↩
Andrew Torba : « Le passage au protocole ActivityPub pour notre base nous permet d’entrer dans les App Stores mobiles sans même avoir à soumettre ni faire approuver nos propres applications, que cela plaise ou non à Apple et à Google », posté sur Gab, url consultée en mai 2019. ↩
David Garcia, « The Revenge of Folk Politics », transmediale/journal, 1, 2018. En ligne. ↩
hbsc & friends, « Have You Considered the Alternative? », Homebrew Server Club, 9 March 2017. En ligne. ↩
Sarah Jamie Lewis (éd.), Queer Privacy: Essays From The Margin Of Society, Victoria, British Columbia, Lean Pub/Mascherari Press, 2017, p. 2. ↩
Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, PublicAffairs, 2019. ↩
Silvio Lorusso, Entreprecariat – Everyone Is an Entrepreneur. Nobody Is Safe, Onomatopee: Eindhoven, 2019. ↩
Pour un exemple d’introduction très souvent citée en lien, rédigée par une utilisatrice, cf. Noëlle Anthony, Joyeusenoelle/GuideToMastodon, 2019. En ligne. ↩
Au sein de ce texte, nous utilisons « média social commercial » (corporate social media) et « média social alternatif » (alternative social media) comme définis par Robert W. Gehl, « The Case for Alternative Social Media », op. cit.. ↩
Pour un relevé permanent de ces problématiques, cf. Pervasive Labour Union Zine, en ligne. ↩
Bien que formulée dans le contexte de Tumblr, pour une discussion à propos des tensions entre le travail numérique, les communautés post-numériques et l’activisme, voyez Cassius Adair et Lisa Nakamura, « The Digital Afterlives of This Bridge Called My Back: Woman of Color Feminism, Digital Labor, and Networked Pedagogy », American Literature, 89(2), 2017, p. 255-278. ↩
Pour des éléments de discussion sur le financement public des logiciels libres, ainsi que quelques analyses des premiers jets de lois concernant l’accès au code source des logiciels achetés avec l’argent public, cf. Jesús M. González-Barahona, Joaquín Seoane Pascual et Gregorio Robles, Introduction to Free Software, Barcelone, Universitat Oberta de Catalunya, 2009. ↩
par exemple, consultez Atsushi Akera, « Voluntarism and the Fruits of Collaboration: The IBM UserGroup, Share », Technology and Culture, 42(4), 2001, p. 710-736. ↩
Sam Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, Farnham: O’Reilly, 2002. ↩
Femke Snelting, « Codes of Conduct: Transforming Shared Values into Daily Practice », dans Cornelia Sollfrank (éd.), The Beautiful Warriors: Technofeminist Praxis in the 21st Century, Colchester, Minor Compositions, 2019, pp. 57-72. ↩
Dušan Barok, Privatising Privacy: Trojan Horse in Free Open Source Distributed Social Platforms, Thèse de Master, Networked Media, Piet Zwart Institute, Rotterdam/Netherlands, 2011. ↩
Voyez l’échange de correspondance Stallman-Ghosh-Glott sur l’étude du FLOSS, « Two Communities or Two Movements in One Community? », dans Rishab Aiyer Ghosh, Ruediger Glott, Bernhard Krieger and Gregorio Robles, Free/Libre and Open Source Software: Survey and Study, FLOSS final report, International Institute of Infonomics, University of Maastricht, Netherlands, 2002. En ligne. ↩
Consultez par exemple Felix von Leitner, « Mon Jul 6 2015 », Fefes Blog, 6 July 2015, en ligne. ↩
Qui sont les auteurs
AYMERIC MANSOUX s’amuse avec les ordinateurs et les réseaux depuis bien trop longtemps. Il a été un membre fondateur du collectif GOTO10 (FLOSS+Art anthology, Puredyne distro, make art festival). Parmi les collaborations récentes, citons : Le Codex SKOR, une archive sur l’impossibilité d’archiver ; What Remains, un jeu vidéo 8 bits sur la manipulation des l’opinion publique et les lanceurs d’alerte pour la console Nintendo de 1985 ; et LURK, une une infrastructure de serveurs pour les discussions sur la liberté culturelle, l’art dans les nouveaux médias et la culture du net. Aymeric a obtenu son doctorat au Centre d’études culturelles, Goldsmiths, Université de Londres en 2017, pour son enquête sur le déclin de la diversité culturelle et des formes techno-légales de l’organisation sociale dans le cadre de pratiques culturelles libres et open-source. Il dirige actuellement le Cours de maîtrise en édition expérimentale (XPUB) à l’Institut Piet Zwart, Rotterdam. https://bleu255.com/~aymeric.
ROEL ROSCAM ABBING est un artiste et chercheur dont les travaux portent sur les questions et les cultures entourant les ordinateurs en réseau. Il s’intéresse à des thèmes tels que le réseau, les infrastructures, la politique de la technologie et les approches DIY (NdT : « Faites-le vous-même »). Il est doctorant dans le domaine du design d’interaction à l’université de Malmö.
Détruire le capitalisme de surveillance – 6 et fin
Voici la sixième et dernière partie de notre traduction de l’essai que consacre Cory Doctorow au capitalisme de surveillance pour le déconstruire.
La Tech n’est pas la seule industrie qui ait subi une concentration massive depuis l’ère Reagan. Quasiment toutes les grandes industries, depuis le pétrole jusqu’à la presse, en passant par l’emballage, le fret maritime, les lunettes, mais aussi la pornographie en ligne, sont devenues des oligarchies sélectives dominées seulement par une poignée de participants.
Dans le même temps, chaque industrie est devenue, en quelque sorte, une industrie technologique, puisque, d’une part, les ordinateurs polyvalents et les principaux réseaux et d’autre part la promesse d’efficacité à travers de l’analyse des données injectent de la technologie dans chaque appareil, chaque processus et chaque entreprise.
Ce phénomène de concentration industrielle fait partie d’une situation plus large de concentration des richesses en général, étant donné qu’un nombre toujours plus réduit de personnes possède une part croissante de notre monde. Cette concentration des richesses et des industries signifie que nos choix politiques sont de plus en plus tributaires des intérêts des personnes et des entreprises qui possèdent toutes ces richesses.
Cela signifie que lorsqu’un régulateur pose une question à laquelle la réponse est empirique (par exemple : « Les hommes sont-ils responsables du changement climatique ? » ou bien « Devons-nous laisser les entreprises s’adonner à la surveillance commerciale de masse ? » ou encore « La société tire-t-elle des avantages de l’autorisation de violations de la neutralité des réseaux ? »), la réponse qui en découle sera exacte uniquement si elle est conforme à celle proposée par les riches et les industries qui les rendent si riches.
Les riches ont toujours joué un rôle démesuré en politique, d’autant plus depuis la décision depuis l’arrêt Citizens United de la Cour suprême qui supprime des moyens décisifs de contrôle des dépenses électorales. Creuser les inégalités et concentrer les richesses signifie que les plus riches sont maintenant beaucoup plus riches et peuvent se permettre de dépenser beaucoup plus d’argent pour des projets politiques qu’auparavant. Pensez aux frères Koch, à George Soros ou à Bill Gates.
Mais les distorsions politiques des riches sont négligeables en comparaison des distorsions politiques dont les secteurs industriels centralisés sont capables. Les entreprises de ces secteurs industriels hautement centralisées sont beaucoup plus rentables que les entreprises de secteurs concurrentielles : pas de concurrence veut dire pas besoin de casser les prix ou d’améliorer la qualité pour gagner des clients, ce qui leur permet de dépenser leurs excédents de capitaux en lobbying.
Il est aussi plus facile pour les industries centralisées de collaborer sur des objectifs stratégiques plutôt que d’entrer en concurrence directe. Lorsque tous les cadres exécutifs de votre industrie peuvent se réunir autour d’une seule table, ils le font. Et souvent, lorsqu’ils le font, ils peuvent s’accorder sur un consensus autour des régulations.
Grimper les échelons dans une industrie centralisée veut généralement dire travailler pour deux ou trois grandes entreprises. Quand il n’y a qu’un nombre relativement réduit d’entreprises dans un secteur, chaque entreprise a ses échelons exécutifs sclérosés, qui ne laissent aux cadres ambitieux que très peu de possibilités de promotion, à moins d’être recrutés par un concurrent. Il est probable que le gratin des cadres exécutifs d’un secteur centralisé ont tous été collègues à un moment, qu’ils ont évolué dans les mêmes cercles sociaux, qu’ils se sont rencontrés via leurs relations sociales ou, par exemple, en étant administrateur des biens des autres. Ces relations étroites favorisent une attitude collégiale plutôt que concurrentielle.
Les industries hautement concentrées sont également des casse-têtes à réglementer. Dans une industrie dominée par seulement quatre ou cinq sociétés, les seules personnes susceptibles de vraiment en comprendre les pratiques sont les anciens cadres exécutifs de ce secteur. Cela signifie que les hauts dirigeants des services de régulation sont souvent les anciens cadres des entreprises qu’ils sont censés réguler. Cette rotation de la gouvernance est souvent tacitement considérée comme une forme d’absence autorisée, et les anciens employeurs accueillent alors à nouveau volontiers dans leurs rangs leurs anciens chiens de garde lorsque leur mandat se termine.
Tout ça pour dire que les liens sociaux étroits, le petit nombre d’entreprises et la mainmise sur les systèmes de réglementation donnent aux entreprises qui composent ces secteurs centralisés le pouvoir de contrôler beaucoup sinon toutes les régulations qui les limitent.
Et c’est de plus en plus visible. Que ce soient des prêteurs sur gages qui gagnent le droit de pratiquer des prêts agressifs, Apple qui gagne le droit de décider qui peut réparer votre téléphone, Google et Facebook qui gagnent le droit d’accéder à vos données personnelles sans aucune conséquence significative, les victoires des entreprises pétrolières, l’impunité des fabricants d’opioïdes, les subventions fiscales massives pour des entreprises dominantes incroyablement rentables, il est de plus en plus évident qu’un grand nombre de nos procédures officielles, basées sur des faits et à la recherche de la vérité, sont, en réalité des ventes aux enchères au plus offrant.
Il est vraiment impossible de surestimer l’ampleur de cette perspective terrifiante. Nous vivons dans une société incroyablement high-tech et aucun de nous ne pourrait acquérir l’expertise nécessaire pour évaluer chacune des propositions technologiques qui nous séparent de notre horrible disparition finale. Vous pourriez passer une vie entière à acquérir les compétences numériques pour distinguer les publications scientifiques fiables des faux-semblants financés par la corruption, tout comme acquérir les connaissances en microbiologie et épidémiologie pour savoir si les déclarations sur la sûreté des vaccins sont recevables. Mais vous seriez toujours incompétent⋅e pour savoir si le câblage électrique de votre maison pourrait vous électrocuter, ou si le logiciel qui pilote les freins de votre voiture ne risque pas de les lâcher sans prévenir, ou encore si l’hygiène de votre boucher est suffisante pour vous éviter de mourir à la fin de votre repas.
Dans un monde aussi complexe que celui-là, nous devons nous en référer aux autorités, et nous nous assurons qu’ils restent honnêtes en leur faisant rendre des comptes et se soumettre à des règles pour éviter les conflits d’intérêts. Nous ne pouvons pas acquérir l’expertise pour émettre un jugement sur les demandes contradictoires concernant la meilleure façon de rendre le monde sûr et prospère, mais nous pourrions déterminer si le processus d’évaluation lui-même est fiable.
Pour le moment, ce n’est pas du tout le cas.
Durant ces quarante dernières années, l’accroissement des inégalités et de la concentration des industries, conjugué à la diminution de la responsabilité et au manque de transparence des organismes experts, ont renforcé le sentiment d’une catastrophe imminente, ce sentiment qu’il existe de grandes conspirations à l’œuvre qui opèrent avec une approbation officielle tacite, malgré la probabilité qu’elles travaillent à leur propre survie sur les ruines de notre monde.
Par exemple, cela fait des décennies que les scientifiques d’Exxon eux-mêmes ont conclu que leur production rendrait la Terre inhabitable par les humains. Et ces décennies sont désormais bel et bien perdues pour nous, en grande partie à cause du lobbying d’Exxon auprès des gouvernements et de l’instillation de doutes sur la dangerosité de sa production, et ce avec l’appui de beaucoup d’agents de l’État. Lorsque votre survie et celle de votre entourage sont menacées par des conspirations, il n’est pas anormal de commencer à s’interroger sur les choses que vous pensez connaître pour tenter de savoir si elles sont, elles aussi, le résultat d’une autre conspiration.
L’effondrement de la crédibilité de nos systèmes face aux vérités révélées nous a laissé dans un état de chaos épistémologique. Avant, la plupart d’entre nous pensaient que le système fonctionnait et que nos régulations reflétaient le meilleur des vérités empiriques de notre monde, car elles étaient mieux comprises. Désormais, nous devons trouver nos propres experts pour nous aider à trier le vrai du faux.
Si vous êtes comme moi, vous devez probablement croire que les vaccins sont sûrs, mais (comme moi) vous ne pouvez pas expliquer la microbiologie ou les statistiques. Peu d’entre nous possèdent les capacités en mathématiques suffisantes pour pouvoir lire les documents sur la sûreté des vaccins et décrire en quoi leurs statistiques sont valides. De même, peu d’entre nous peuvent examiner la documentation sur la sûreté des opioïdes (désormais discréditée) et expliquer en quoi ces statistiques étaient manipulées. Les vaccins comme les opioïdes ont été acceptés par le corps médical, après tout, et pourtant les uns sont sûrs tandis que les autres pourraient détruire votre vie. Il ne vous reste qu’une myriade de règles au doigt mouillé pour lesquelles vous devez faire confiance aux experts pour vérifier des affirmations controversées et expliquer ensuite en quoi tous ces respectables médecins et leurs recherches évaluées par des pairs sur les opioïdes étaient une aberration, et comment vous savez que la littérature médicale sur la sécurité des vaccins n’est pas, elle aussi, une aberration.
Je suis certain à 100 % que la vaccination est sûre et efficace, mais j’ai aussi un peu de mal à comprendre exactement, précisément, pourquoi j’y crois, étant donné toute la corruption dont j’ai connaissance et les nombreuses fois où on découvre sous le sceau de la vérité un mensonge éhonté pour enrichir toujours plus les ultra-riches.
Les fake news, que ce soit une théorie du complot, une idéologie raciste ou un négationnisme scientifique, ont toujours existé. Ce qui est nouveau aujourd’hui, ce n’est pas le mélange des idées dans le discours public mais la popularité des pires idées dans de ce mélange. La conspiration et le déni ont explosé au même rythme que les inégalités les plus criantes, qui ont elles-mêmes suivi le même chemin que les Géants de la tech, les Géants de l’industrie pharmaceutique, les Géants du catch et les Géants de l’automobile et les Géants du cinéma et les Géants de tout le reste.
Personne ne peut dire avec certitude comment on en est arrivé là, mais les deux camps principaux sont l’idéalisme (la conviction que les personnes qui défendent ces conspirations se sont améliorés à les expliquer, peut-être avec l’aide d’outils d’apprentissage machine) et le matérialisme (les idées sont devenues plus séduisantes en raison des conditions matérielles du monde).
Je suis matérialiste. J’ai été exposé aux arguments des théories conspirationnistes toute ma vie, et je n’ai jamais constaté d’amélioration soudaine de la qualité de ces arguments.
La principale différence réside bien dans le monde, et non dans les arguments. À une époque où les vraies conspirations sont banales, les théories conspirationnistes deviennent de plus en plus vraisemblables.
Nous avons toujours eu des désaccords sur ce qui est vrai, mais aujourd’hui nous avons des désaccords sur la manière dont nous savons si quelque chose est vrai. C’est une crise épistémologique, pas une crise de la croyance. Une crise de la crédibilité de nos exercices de recherche de la vérité, depuis les revues scientifiques (à une époque où les principaux éditeurs ont été pris la main dans le sac en train de publier des revues d’articles payantes avec de la science de pacotille) jusqu’aux instances régulatrices (à une époque où les régulateurs ont pris l’habitude de faire des allers-retours dans le monde des affaires) en passant par l’éducation (à une époque où les universités dépendent de mécénats d’entreprises pour garder la tête hors de l’eau).
Le ciblage – le capitalisme de surveillance – permet de trouver plus facilement des personnes qui subissent cette crise épistémologique, mais ce n’est pas lui qui crée la crise en elle-même. Pour cela, il faut regarder du côté de la corruption.
Et, heureuse coïncidence, c’est la corruption qui permet au capitalisme de surveillance de se développer en démantelant les protections contre les monopoles, en permettant la collecte et la conservation des données personnelles, en autorisant les publicités à être ciblées sans consentement, et en empêchant d’aller ailleurs pour continuer à profiter de vos amis sans vous soumettre à la surveillance commerciale.
La tech, c’est différent
Je refuse les deux variantes de l’exceptionnalisme technologique : d’une part l’idée que la technologie puisse être uniquement exécrable et dirigée par des personnes plus avides ou plus horribles que les dirigeants d’autres secteurs industriels et, d’autre part, l’idée que la technologie est tellement bénéfique, ou qu’elle est si intrinsèquement destinée à la concentration, que personne ne peut lui reprocher son statut monopolistique actuel.
Je pense que la technologie n’est qu’une industrie comme les autres, même si elle a grandi sans véritables contraintes de monopole. Elle a peut-être été la première, mais ce n’est pas la pire et ce ne sera pas la dernière.
Mais il y a un cas de figure où je suis en faveur de l’exception technologique. Je pense que les outils en ligne sont la clé pour surmonter des problèmes bien plus urgents que le monopole de la technologie : le changement climatique, les inégalités, la misogynie et les discriminations fondées sur la race, le genre et d’autres critères. Internet nous permet de recruter des personnes pour mener ces combats et coordonner leurs efforts. La technologie ne remplace pas la responsabilité démocratique, ni l’État de droit, ni l’équité, ni la stabilité, mais elle est un moyen d’atteindre ces objectifs.
Notre espèce a un vrai problème avec la coordination. Tout, du changement climatique au changement social en passant par la gestion d’une entreprise et le fonctionnement d’une famille, peut être considéré comme un problème d’action collective.
Grâce à Internet, il est plus facile que jamais de trouver des personnes qui veulent collaborer à un projet avec vous (d’où le succès des logiciels libres et open source, du financement participatif, des groupes racistes terroristes…) et jamais il n’a été aussi facile de coordonner le travail que vous faites.
Internet et les ordinateurs que nous y connectons possèdent aussi une qualité exceptionnelle : la polyvalence de leur usage. Internet est conçu pour permettre à deux interlocuteurs s’échanger des données, en utilisant n’importe quel protocole, sans l’autorisation d’une personne tierce. La seule contrainte de conception que nous ayons pour produire des ordinateurs, c’est qu’ils doivent être polyvalents. Un ordinateur complet au sens de Turing peut exécuter tous les programmes que nous pouvons exprimer dans une logique symbolique.
Cela signifie que chaque fois qu’une personne avec un besoin particulier de communication investit dans des infrastructures et des moyens techniques pour rendre Internet plus rapide, moins cher et plus robuste, cela bénéficie à tous celles et ceux qui utilisent Internet pour communiquer. Cela signifie également que chaque fois qu’une personne qui a des besoins informatiques particuliers investit pour rendre les ordinateurs plus rapides, moins chers et plus robustes, toutes les autres applications informatiques sont des bénéficiaires potentielles de ce travail.
Pour toutes ces raisons, tous les types de communication sont progressivement absorbés par Internet, et toutes les catégories d’appareils, des avions aux stimulateurs cardiaques, finissent par devenir un ordinateur dans un joli boîtier fantaisie.
Bien que ces considérations n’empêchent pas de réglementer les réseaux et les ordinateurs, elles constituent un appel à la rigueur et à la prudence, car les changements apportés aux cadres réglementaires pourraient avoir des conséquences imprévues dans de très nombreux domaines.
La conséquence de tout cela, c’est que notre meilleure chance de résoudre nos énormes problèmes de coordination – le changement climatique, les inégalités, etc. – réside dans une technologie éthique, libre et ouverte. Et notre meilleure chance de maintenir des technologies libres, ouvertes et éthiques c’est de nous montrer prudents dans la manière de réglementer la technologie et de prêter une attention particulière à la façon dont les interventions pour résoudre un problème peuvent créer de nouveaux problèmes dans d’autres domaines.
La propriété des faits
Les Géants de la tech ont une drôle de relation avec l’information. Lorsque vous générez des informations, qu’il s’agisse de données de localisation diffusées en continu par votre appareil mobile ou des messages privés que vous envoyez à vos amis sur un réseau social, ils revendiquent le droit d’utiliser ces données de manière illimitée.
Mais lorsque vous avez l’audace d’inverser les rôles, en utilisant un outil bloqueur de publicités ou qui récupère vos mises à jour en attente sur un réseau social et les installe dans une autre application qui vous laisse déterminer vos propres priorités et suggestions, ou qui analyse leur système pour vous permettre de créer une entreprise concurrente, alors là, ils prétendent que vous les volez.
En réalité, l’information ne convient à aucun type de régime de propriété privée. Les droits de propriété permettent de créer des marchés qui peuvent conduire au développement d’actifs non exploités. Ces marchés dépendent d’intitulés clairs pour garantir que les choses qui y sont achetées et vendues peuvent réellement être achetées et vendues.
Les informations ont rarement un intitulé aussi clair. Prenez les numéros de téléphone : de toute évidence, il n’est pas normal que Facebook récupère les carnets d’adresses de millions d’utilisateurs et utilise ces numéros de téléphone pour créer des graphes sociaux et renseigner les informations manquantes sur les autres utilisateurs.
Mais les numéros de téléphone que Facebook acquiert sans consentement dans le cadre de cette transaction ne sont pas la « propriété » des utilisateurs auxquels ils sont soustraits, ni celle des personnes dont le téléphone sonne lorsque vous les composez. Ces numéros sont de simples nombres entiers, composés de 10 chiffres aux États-Unis et au Canada, et on les trouve dans des milliards d’endroits, y compris quelque part dans le nombre Pi, ainsi que dans de nombreux autres contextes. Accorder aux gens des titres de propriété sur des nombres entiers est vraiment une très mauvaise idée.
Il en va de même pour les données que Facebook et d’autres acteurs de la surveillance publicitaire acquièrent à notre sujet, comme le fait que nous sommes les enfants de nos parents ou les parents de nos enfants ou que nous avons eu une conversation avec quelqu’un d’autre ou sommes allés dans un lieu public. Ces éléments d’informations ne peuvent pas vous appartenir comme votre maison ou votre chemise vous appartiennent, car leur titre de propriété est vague par nature. Votre mère est-elle propriétaire du fait d’être votre mère ? Et vous ? L’êtes-vous tous les deux ? Et votre père, est-il également propriétaire de ce fait ou doit-il obtenir une licence de votre part (ou de votre mère ou de vous deux) pour pouvoir en faire usage ? Qu’en est-il des centaines ou des milliers d’autres personnes qui disposent de ces données ?
Si vous allez à une manifestation Black Lives Matter, les autres manifestants ont-ils besoin de votre autorisation pour poster leurs photos de l’événement ? Les querelles en ligne sur le moment et la manière de publier des photos de manifestations révèlent un problème subtil et complexe, difficile à régler d’un coup de baguette magique en accordant à certains un droit de propriété que tous les autres doivent respecter.
Le fait que l’information ne fasse pas bon ménage avec la propriété et les marchés ne signifie pas pour autant qu’elle n’a aucune de valeur. Un bébé n’est pas un bien, il n’en reste pas moins qu’il possède une valeur incontestable. En réalité, nous avons un ensemble de règles uniquement dédié aux bébés, et une partie seulement de ces règles s’appliquent aux humains de façon plus générale. Celui qui affirmerait que les bébés n’auront pas véritablement de valeur tant qu’on ne pourra pas les acheter et les vendre comme des petits pains serait immédiatement et à juste titre condamné comme un monstre.
Il est tentant d’attraper le marteau de la propriété quand les Géants de la tech traitent vos informations comme des clous, en particulier parce que les Géants de la tech font un tel abus des marteaux de la propriété quand il s’agit de leurs informations. Mais c’est une erreur. Si nous permettons aux marchés de nous dicter l’usage de nos informations, nous allons devenir des vendeurs sur un marché d’acheteurs. Un marché qui sera monopolisé par les Géants de la tech. Ils attribueront un si bas prix à nos données, qu’il en deviendra insignifiant ou, plus probablement, qu’il sera fixé à un prix proche de zéro sans aucune possibilité de négociation, et ce, grâce à un accord donné d’un simple clic, sans possibilité de le modifier.
D’ici là, établir des droits de propriété sur l’information créera des obstacles insurmontables au traitement indépendant des données. Imaginez que l’on exige de négocier une licence quand un document traduit est comparé à sa version originale, ce qu’a fait Google et qu’il continue à faire des milliards de fois pour entraîner ses outils de traduction automatique. Google peut se le permettre, mais pas les tiers indépendants. Google peut mettre en place un service d’autorisation pour négocier des paiements uniques à des institutions comme l’UE (l’un des principaux dépositaires de documents traduits). Alors que les organismes de surveillance indépendants, qui veulent vérifier que les traductions sont bien préparées ou bien qui veulent éliminer les erreurs de traduction, auront besoin d’un service juridique doté de personnel et de millions pour payer les licences avant même de pouvoir commencer.
Il en va de même pour les index de recherche sur le Web ou les photos des maisons des gens, qui sont devenues controversées avec le projet Street View de Google. Quels que soient les problèmes que pose la photographie de scènes de rue par Google, les résoudre en laissant les gens décider qui peut photographier les façades de leurs maisons depuis une rue publique créera sûrement des problèmes plus graves encore. Pensez à l’importance de la photographie de rue pour la collecte d’informations, y compris la collecte informelle d’informations, comme les photos d’abus d’autorité, et combien il est important de pouvoir documenter l’habitat et la vie dans la rue pour contester un droit de préemption, plaider en faveur de l’aide sociale, signaler les violations de la planification et de zonage, documenter les conditions de vie discriminatoires et inégales, etc.
S’approprier des faits est contraire à un grand nombre de progrès humains. Il est difficile d’imaginer une règle qui limite l’exploitation par les Géants de la tech de notre travail collectif sans empêcher involontairement des personnes de recueillir des données sur le cyber-harcèlement ou de compiler des index de changements de langue, ou encore simplement d’enquêter sur la façon dont les plateformes façonnent notre discours. Tout cela nécessite d’exploiter des données créées par d’autres personnes et de les soumettre à l’examen et à l’analyse.
La persuasion, ça marche… mais lentement
Les plateformes peuvent exagérer leur capacité à persuader les gens, mais il est évident que la persuasion fonctionne parfois. Qu’il s’agisse du domaine privé utilisé par les personnes LGBTQ pour recruter des alliés et faire reconnaître une diversité sexuelle ou du projet mené depuis des décennies pour convaincre les gens que les marchés constituent le seul moyen efficace de résoudre les problèmes complexes d’allocation de ressources, il est clair que nos comportements sociaux peuvent changer.
Modifier les comportements au sein de la société est un projet de longue haleine. Pendant des années, les svengalis ont prétendu pouvoir accélérer ce processus, mais même les formes de propagande les plus brutales ont dû se battre pour susciter des changements permanents. Joseph Goebbels a dû soumettre les Allemands à des heures de radiodiffusion quotidiennes obligatoires pour arrêter les opposants et les assassiner, ainsi que de s’assurer d’un contrôle intégral sur l’éducation des enfants, tout en excluant toute littérature, émission ou film qui ne se conformaient pas à sa vision du monde.
Cependant, après 12 ans de terreur, une fois la guerre terminée, l’idéologie nazie a largement été discréditée en Allemagne de l’Est comme de l’Ouest, et un programme de vérité et de réconciliation nationale a été mis en place. Le racisme et l’autoritarisme n’ont jamais été totalement abolis en Allemagne, mais la majorité des Allemands n’étaient pas non plus définitivement convaincus par le nazisme. La montée de l’autoritarisme raciste en Allemagne aujourd’hui montre que les attitudes libérales qui ont remplacé le nazisme n’étaient pas plus définitives que le nazisme lui-même.
Le racisme et l’autoritarisme ont également toujours été présents chez nous, en Amérique du Nord. Tous ceux qui se sont déjà penchés sur le genre de messages et d’arguments que les racistes avancent aujourd’hui auraient du mal à faire croire qu’ils ont fait des progrès dans la façon de présenter leurs idées. On retrouve aujourd’hui dans le discours des principaux nationalistes blancs la même pseudo-science, les mêmes recours à la peur, le même raisonnement en boucle que ceux présentés par les racistes des années 1980, lorsque la cause de la suprématie blanche était en perte de vitesse.
Si les racistes n’ont pas été plus convaincants au cours de la dernière décennie, comment se fait-il que davantage de personnes aient été convaincues d’être ouvertement racistes ? Il semble que la réponse se trouve dans le monde matériel, pas dans le monde des idées. Non pas qu’elles soient devenues plus convaincantes, mais les gens sont devenus de plus en plus peureux. Ils ont peur de ne plus pouvoir faire confiance à l’État pour agir de façon honnête dans des domaines essentiels, depuis la gestion de l’économie jusqu’à la réglementation des analgésiques ou celle du traitement des données privées.
Les gens ont peur que le monde soit devenu un jeu de chaises musicales dans lequel les chaises sont retirées à un rythme sans précédent. Ils ont peur que la justice soit rendue à leur détriment. Le monopole n’est pas la cause de ces craintes, mais l’inégalité, la misère matérielle et les mauvaises pratiques politiques qu’il engendre y contribue fortement. L’inégalité crée les conditions propices aux conspirations et aux idéologies racistes violentes. Le capitalisme de surveillance permet alors aux opportunistes de cibler les personnes qui ont peur et celles qui sont conspirationnistes.
Payer ne va pas aider à grand-chose
Comme le dit le déjà vieil adage : « si c’est gratuit, c’est toi le produit ».
Aujourd’hui, c’est un lieu commun de croire que le péché originel du capitalisme de surveillance a été l’arrivée des médias gratuits financés par la publicité. Le raisonnement était le suivant : les entreprises qui faisaient payer l’accès ne pouvaient pas « concurrencer les médias gratuits » et elles étaient donc éjectées du marché. Les concurrents soutenus par la publicité, quant à eux, ont déclaré ouverte la saison de la chasse aux données de leurs utilisateurs dans la perspective d’améliorer le ciblage de leurs publicités, gagner plus d’argent et faire appel aux stratégies les plus étonnantes pour générer davantage de clics sur ces publicités. Si seulement nous nous mettions à payer à nouveau, nous aurions un meilleur système d’information, plus responsable, plus sobre et qui serait vertueux pour la démocratie.
Mais la dégradation de la qualité des actualités a précédé de loin l’avènement des informations en ligne financées par la pub. Bien avant l’ère des journaux en ligne, les lois antitrust appliquées de façon laxiste avaient ouvert la porte à des vagues sans précédent de restructuration et de dégraissage dans les salles de rédaction. Des journaux rivaux ont fusionné, des journalistes et des vendeurs d’espace publicitaire ont été virés, des espaces de bureaux ont été vendus ou loués, laissant les entreprises criblées de dettes à cause d’un système de rachat par endettement et de bénéfices distribués aux nouveaux propriétaires. En d’autres termes, ce n’était pas simplement le déclin des petites annonces, longtemps considéré comme responsable du déclin des journaux, qui a rendu ces entreprises de presse incapables de s’adapter à Internet, c’était la monopolisation.
Pendant que les entreprises de presse débarquaient en ligne, les revenus de la publicité se sont mis à décroître, alors même que le nombre d’internautes (et donc un lectorat en ligne potentiel) augmentait. Cette évolution était due à la consolidation du marché des ventes de publicités, Google et Facebook étaient devenus un duopole qui gagnait chaque année davantage d’argent avec la pub, tout en payant de moins en moins les éditeurs dont le travail apparaissait à côté des publicités. Le monopole a créé un marché d’acheteurs pour la diffusion publicitaire et Facebook et Google en étaient les maîtres et les gardiens.
Les services payants continuent d’exister aux côtés des services gratuits – soucieux qu’ils sont d’empêcher les internautes de contourner leur page de paiement ou de partager des médias payants – ils exercent le plus grand contrôle sur leurs clients. iTunes d’Apple et les App stores sont des services payants, mais pour maximiser leur rentabilité, Apple doit verrouiller ses plateformes pour que des tiers ne puissent pas créer de logiciels compatibles sans autorisation. Ces verrous permettent à l’entreprise d’exercer à la fois un contrôle éditorial (qui permet de rejeter des contenus politiques controversés) et technologique, y compris sur la possibilité de réparer le matériel qu’elle fabrique. Si nous redoutons que les produits financés par la pub privent les gens de leur droit à l’autodétermination en utilisant des techniques de persuasion pour orienter leurs décisions d’achat dans une direction ou dans une autre, alors le contrôle quasi total d’une seule entreprise sur la décision de savoir qui va vous vendre le logiciel, les pièces détachées et les services pour votre iPhone devrait sacrément nous inquiéter.
Nous ne devrions pas nous préoccuper uniquement du paiement et du contrôle : l’idée que payer améliore la situation est également fausse et dangereuse. Le faible taux de réussite de la publicité ciblée signifie que les plateformes doivent vous inciter à « vous engager » fortement envers les messages publicitaires pour générer suffisamment de pages vues et préserver ainsi leurs profits. Comme indiqué plus haut, pour accroître l’engagement, les plateformes comme Facebook utilisent l’apprentissage automatique afin de deviner quels messages seront les plus incendiaires et feront tout pour les afficher sous vos yeux dès que vous vous connectez, pour vous faire réagir par la haine et vous disputer avec les gens.
Peut-être que payer réglerait ce problème, selon ce raisonnement. Si les plateformes pouvaient être économiquement viables même si vous arrêtiez de cliquer dessus une fois votre curiosité intellectuelle et sociale assouvie, alors elles n’auraient aucune raison de vous mettre en colère avec leurs algorithmes pour obtenir plus de clics, n’est-ce pas ?
Cet argument est peut-être valable, mais il ne tient toujours pas compte du contexte économique et politique plus large de ces plateformes et du monde qui leur a permis de devenir si dominantes.
Les plateformes sont mondiales parce qu’elles sont des monopoles, et elles sont des monopoles parce que nous avons vidé de leur substance nos règles anti-monopoles les plus importantes et les plus fiables. L’antitrust a été neutralisé car c’était la condition nécessaire pour que le projet de rendre les riches plus riches encore réussisse. La plupart des habitants de la planète ont une valeur nette négative, et même la classe moyenne en recul est dans un état précaire, en manque d’épargne pour la retraite, d’assurances contre les catastrophes sanitaires et de garanties contre les catastrophes climatiques et technologiques.
Dans ce monde féroce et inégalitaire, payer n’améliore pas la situation. Cela ne fait que la rendre hors de prix pour la plupart des gens. Payer pour le produit, c’est super quand vous avez les moyens.
Si vous pensez que les bulles de filtres actuelles constituent un problème pour notre monde, imaginez ce qu’elles seraient si les riches fréquentaient le marché des idées à l’athénienne, où il faudrait payer pour entrer pendant que les autres vivent dans des espaces en ligne subventionnés par des bienfaiteurs aisés et ravis de créer des espaces de discussion dans lesquels le « règlement intérieur » interdit de contester le système. Imaginez si les riches se retiraient de Facebook, et qu’au lieu de diffuser des publicités qui rapportent de l’argent à ses actionnaires, Facebook devienne un projet loufoque de milliardaire, visant aussi à s’assurer que personne ne se demande jamais s’il est juste que seuls les milliardaires aient le droit de se retrouver dans les derniers recoins d’internet.
Derrière l’idée de payer pour avoir accès se cache la conviction que les marchés libres permettront de remédier au dysfonctionnement des Géants de la tech. Après tout, quand les gens ont une opinion sur la surveillance, celle-ci est souvent mauvaise, et plus la surveillance d’une personne est longue et approfondie, moins elle a tendance à plaire. Il en va de même pour le verrouillage : si l’encre Hewlett-Packard ou l’App Store Apple étaient si géniales que ça, les mesures techniques pour empêcher les utilisateurs de choisir un produit concurrent seraient inutiles. Ces parades techniques existent pour la simple et bonne raison que ces entreprises ne croient pas que leurs clients se soumettraient spontanément à leurs conditions, et qu’elles veulent les empêcher d’aller voir ailleurs.
Les défenseurs des marchés louent leur capacité à agréger les connaissances diffusées par les acheteurs et les vendeurs dans la société toute entière, par le biais d’informations sur la demande, sur les prix, etc. L’argument en faveur d’un capitalisme de surveillance « voyou » voudrait que les techniques de persuasion basées sur l’apprentissage automatique faussent les décisions des consommateurs, ce qui conduirait à des informations faussées – les consommateurs n’achètent pas ce qu’ils préfèrent, mais ce qu’ils sont amenés à préférer. Il s’ensuit des pratiques monopolistiques de verrouillage qui relèvent davantage encore d’un « capitalisme voyou » et qui restreignent encore plus la liberté de choix du consommateur.
La rentabilité de n’importe quelle entreprise est limitée par la possibilité que ses clients aillent voir ailleurs. La surveillance et le verrouillage sont tous les deux des anti-fonctionnalités qu’aucun client ne désire. Mais les monopoles peuvent se mettre les régulateurs dans la poche, écraser la concurrence, s’insinuer dans la vie privée de leurs clients et pousser les gens à « choisir » leurs services qu’ils le veuillent ou non. Que c’est bon d’être odieux quand il n’existe pas d’alternative.
Au final, la surveillance et le verrouillage sont simplement des stratégies commerciales que peuvent choisir les monopoles.
Les entreprises de surveillance comme Google sont parfaitement capables de déployer des technologies de verrouillage. Il suffit de regarder les clauses de la coûteuse licence d’Android qui obligent les fabricants d’appareils à les intégrer dans la suite d’applications Google. Et les entreprises de verrouillage comme Apple sont parfaitement capables de soumettre leurs utilisateurs à la surveillance pour satisfaire Pékin et ainsi préserver un accès commercial au marché chinois. Les monopoles sont peut-être composés de personnes éthiques et respectables, mais en tant qu’institutions, ils ne comptent pas parmi vos amis : ils feront tout ce qu’ils peuvent pour maximiser leurs profits, et plus ils auront de monopole, mieux ils tireront leur épingle du jeu.
Une fenêtre de tir « écologique » pour briser les trusts
Si nous voulons briser l’emprise mortelle des Géants du Web sur nos vies numériques, nous allons devoir combattre les monopoles. Cela peut paraître banal et ringard, un truc qui vient de l’ère du New Deal, alors que faire cesser l’utilisation automatique des données comportementales ressemble au scénario d’un roman cyberpunk très cool.
En revanche, il semble que nous ayons oublié comment on brise des monopoles. Il existe un consensus des deux côtés de l’Atlantique pour considérer que le démantèlement des entreprises est au mieux une histoire de fous, susceptible d’embourber les juges fédéraux dans des années de procédure judiciaire, et au pire contre-productif car il grignote les « avantages des consommateurs » dont les économies d’échelle sont colossales.
Mais les briseurs de trusts ont autrefois parcouru le pays dans tous les sens, en brandissant des livres de droit, terrorisant les magnats du vol organisé et réduisant en pièces l’illusion de l’emprise toute-puissante des monopoles sur notre société. L’ère de la lutte antitrust ne pouvait pas commencer sans la volonté politique pour le faire, avant que le peuple réussisse à convaincre les politiciens qu’ils les soutiendraient dans leur affrontement contre les hommes les plus riches et les plus puissants du monde.
Pouvons-nous retrouver cette volonté politique ?
James Boyle, un universitaire spécialisé dans le copyright, a analysé comment le terme « écologie » a marqué un tournant dans le militantisme pour l’environnement. Avant l’adoption de ce terme, les personnes qui voulaient protéger les populations de baleines ne se considéraient pas forcément comme combattant pour la même cause que celles qui voulaient protéger la couche d’ozone ou lutter contre la pollution de l’eau ou les pluies acides.
Mais le terme « écologie » a regroupé ces différentes causes en un seul mouvement, dont les membres se sont montrés solidaires les uns des autres. Ceux qui se souciaient de la pollution de l’eau ont signé les pétitions diffusées par ceux qui voulaient mettre fin à la chasse à la baleine, et ceux qui s’opposaient à la chasse à la baleine ont défilé aux côtés de ceux qui réclamaient des mesures contre les pluies acides. Cette union en faveur d’une cause commune a radicalement changé la dynamique de l’environnementalisme et ouvert la voie à l’activisme climatique actuel et au sentiment que la préservation de l’habitabilité de la planète Terre relève d’un devoir commun.
Je crois que nous sommes à l’aube d’un nouveau moment « écologique » consacré à la lutte contre les monopoles. Après tout, la technologie n’est pas la seule industrie concentrée, ni même la plus concentrée.
On trouve des partisans du démantèlement des trusts dans tous les secteurs de l’économie. On trouve partout des personnes abusées par des monopolistes qui ont ruiné leurs finances, leur santé, leur vie privée, leur parcours et la vie de leurs proches. Ces personnes partagent la même cause que ceux qui veulent démanteler les Géants de la tech et ont les mêmes ennemis. Lorsque les richesses sont concentrées entre les mains d’un petit nombre, presque toutes les grandes entreprises ont des actionnaires en commun.
La bonne nouvelle, c’est qu’avec un peu de travail et de coordination, nous disposons d’une volonté politique largement suffisante pour démanteler les Géants de la tech et tous les secteurs qui y sont concentrés. Commençons par Facebook, puis nous nous attaquerons à AT&T/WarnerMedia [groupes étatsuniens, comparable à Orange et Vivendi respectivement].
La mauvaise nouvelle, c’est que la majeure partie de ce que nous entreprenons aujourd’hui pour dompter les Géants de la tech plutôt que de démanteler les grandes entreprises, nous empêchera de les démanteler demain.
Actuellement, la concentration des Géants de la tech signifie que leur inaction en matière de harcèlement, par exemple, place leurs utilisateurs devant un choix impossible : s’absenter du débat public en quittant Twitter, par exemple, ou subir des agressions ignobles en permanence. La collecte et la conservation excessives de données par les Géants de la tech se traduisent par un odieux vol d’identité. Et leur inaction face au recrutement d’extrémistes signifie que les partisans de la suprématie blanche qui diffusent leurs fusillades en direct peuvent toucher un public de plusieurs milliards de personnes. La concentration des technologies et celle des médias implique une diminution des revenus des artistes, alors que les revenus générés par les créations de ces derniers augmentent.
Pourtant, les gouvernements confrontés à ces problèmes aboutissent tous inévitablement à la même solution : confier aux Géants de la tech le soin de contrôler leurs utilisateurs et de les rendre responsables de leurs mauvais comportements. Vouloir obliger les Géants de la tech à utiliser des filtres automatisés pour tout bloquer, de la violation des droits d’auteur au trafic sexuel, en passant par l’extrémisme violent, implique que les entreprises technologiques devront consacrer des millions pour faire fonctionner des systèmes conformes.
Ces règles, comme la nouvelle directive européenne sur les droits d’auteur, la nouvelle réglementation australienne sur le terrorisme, la loi américaine FOSTA/SESTA sur le trafic sexuel et d’autres encore, signent l’arrêt de mort des petits concurrents émergents qui pourraient contester la domination des Géants de la tech, mais n’ont pas les moyens financiers des opérateurs historiques pour acquérir tous ces systèmes automatisés. Plus grave, elles fixent un plancher en deçà de ce que nous pouvons espérer imposer aux Géants de la tech.
C’est parce que toute initiative visant à démanteler les Géants de la tech et à réduire leur taille se heurte à une limite, celle qui consiste à ne pas la réduire trop sous peine de les empêcher de financer leurs activités, car investir dans ces filtres automatisés et sous-traiter la modération de contenu coûte cher. Il va déjà être difficile de séparer ces monstres chimériques fortement concentrés qui ont été assemblés les uns aux autres pour obtenir des bénéfices de monopoles. Il sera encore plus difficile de le faire tout en trouvant un moyen de combler le vide réglementaire créé si ces auto-régulateurs étaient soudain contraints de se retirer.
Laisser les plateformes atteindre leur taille actuelle leur a conféré une position dominante quasi irréversible. Les charger de missions publiques pour remédier aux pathologies créées par leur taille rend presque impossible la réduction de cette taille. Je répète, encore et encore, si les plateformes ne deviennent pas plus petites, elles deviendront plus grandes, et à mesure qu’elles grandiront, elles engendreront davantage de problèmes, ce qui entraînera une augmentation de leurs missions publiques et leur permettra de devenir plus grandes encore.
Nous pouvons essayer de réparer Internet en démantelant les Géants de la tech et en les privant des bénéfices de monopole, ou bien nous pouvons essayer de réparer les Géants de la tech en les obligeant à consacrer leurs bénéfices de monopole à la gouvernance. Mais nous ne pouvons pas faire les deux. Nous devons choisir entre un Internet dynamique et ouvert ou un Internet dominé et monopolisé, dirigé par les Géants de la tech contre lesquels nous nous battons en permanence pour les obliger à bien se comporter.
Make Big Tech small again
Briser les monopoles est difficile. Démanteler les grandes entreprises est coûteux et prend du temps. Tellement de temps que lorsque vous y êtes enfin parvenu, le monde a évolué et a rendu inutiles des années de contentieux. De 1969 à 1982, le gouvernement américain a engagé une procédure antitrust contre IBM en raison de sa position dominante sur le marché des ordinateurs centraux, mais elle a capoté en 1982 parce que les ordinateurs centraux étaient de plus en plus remplacés par des PC.
Il est beaucoup plus facile d’empêcher la concentration que de la corriger, et le rétablissement des contours traditionnels de la loi antitrust américaine empêchera, à tout le moins, toute nouvelle concentration. Cela signifie l’interdiction des fusions entre grandes entreprises, l’interdiction pour les grandes entreprises d’acquérir des concurrents émergents, et l’interdiction pour les plates-formes de concurrencer directement les entreprises qui dépendent de ces plates-formes.
Ces pouvoirs sont tous rédigés dans le langage clair et simple des lois antitrust américaines donc, en théorie, un futur président américain pourrait simplement ordonner à son procureur général de faire appliquer la loi telle qu’elle a été rédigée. Mais après des décennies d’« éducation » judiciaire qui vantait les bénéfices des monopoles, après que de nombreux gouvernements eurent rempli les tribunaux fédéraux de supporters des monopoles rémunérés à vie, pas sûr qu’une simple intervention administrative suffise.
Si les tribunaux contrarient le ministère de la Justice et le président, la prochaine étape serait le Congrès, qui pourrait éliminer les doutes sur la façon dont la loi antitrust devrait être appliquée aux États-Unis en adoptant de nouvelles lois qui reviennent à dire « Arrêtez ça. Nous savons tous ce que prévoit la loi Sherman. Robert Bork était un hurluberlu déjanté. Que les choses soient claires, on l’emmerde ». En d’autres termes, le problème des monopoles, c’est le monopole – la concentration du pouvoir entre les mains de quelques-uns, qui rogne notre droit à l’autodétermination. S’il y a un monopole, la loi veut qu’il disparaisse, point. Bien sûr, il faut se débarrasser des monopoles qui créent un « préjudice pour le consommateur » en augmentant les prix, mais il faut aussi se débarrasser des autres monopoles.
Mais cela ne fait qu’empêcher les choses d’empirer. Pour contribuer à les améliorer, nous allons devoir former des alliances avec d’autres militants du mouvement écologiste anti-monopole – ce serait un mouvement de pluralisme ou d’autodétermination – et prendre pour cibles les monopoles existants de chaque industrie avec des règles de démantèlement et de séparation structurelle qui empêcheraient par exemple la domination sans partage du géant Luxottica sur tout ce qui est optique et lunetterie, tant dans la vente que la fabrication. De façon significative, peu importe dans quel secteur industriel commencent les ruptures. Une fois qu’elles auront commencé, les actionnaires de tous les secteurs se mettront à regarder avec scepticisme leurs investissements dans les monopoles.
Lorsque que les briseurs de trusts feront leur entrée sur scène et commenceront à mener la vie dure aux monopolistes, le débat au sein des conseils d’administration des entreprises évoluera. Les personnes qui se seront toujours senties mal à l’aise face au monopole auront un nouvel argument puissant pour contrer leurs adversaires redoutables dans la hiérarchie de l’entreprise : « Si nous utilisons mes méthodes, nous gagnerons moins d’argent, si nous utilisons les vôtres, un juge nous infligera des amendes de plusieurs milliards et nous exposera aux moqueries et à la désapprobation générale. Donc, même si je reconnais qu’il serait vraiment génial de réaliser cette fusion, de verrouiller la concurrence, ou de racheter cette petite entreprise et de la faire disparaître avant qu’elle ne constitue une menace, nous ne devrions vraiment pas le faire – sauf à vouloir se livrer pieds et poings liés au département de la Justice et être trimballés sur la route des briseurs de trusts pendant les dix prochaines années ».
20 GOTO 10
Régler le problème de Géants de la tech va nécessiter de nombreuses itérations. Comme l’a écrit le cyber juriste Lawrence Lessig dans son ouvrage Code and Other Laws of Cyberspace(1999) [NdT : ouvrage non traduit en français], nos vies sont régies par quatre forces : la loi (ce qui est légal), le code (ce qui est technologiquement possible), les normes (ce qui est socialement acceptable) et les marchés (ce qui est rentable).
Si vous pouviez d’un coup de baguette magique obtenir du Congrès qu’il adopte demain une loi qui modifie la loi Sherman, vous pourriez utiliser les démantèlements à venir pour convaincre les investisseurs en capital-risque de financer les concurrents de Facebook, Google, Twitter et Apple qui attendent en coulisses après avoir subi une réduction de leur taille.
Mais pour amener le Congrès à agir, il faudra un virage normatif à 90 degrés, un mouvement de masse de personnes préoccupées par les monopoles et qui souhaitent les faire sauter.
Pour que les gens s’intéressent aux monopoles, il faudra des innovations technologiques qui leur permettent de voir à quoi pourrait ressembler un monde sans les Géants de la tech. Imaginez que quelqu’un crée un client tiers très apprécié (mais non autorisé) sur Facebook ou Twitter, qui freine le flux algorithmique anxiogène tout en vous permettant de parler à vos amis sans être espionné, quelque chose qui rendrait les médias sociaux plus sociables et moins toxiques. Imaginez maintenant que ce client soit fermé au cours d’une violente bataille juridique. Il est toujours plus facile de convaincre les gens qu’il faut agir pour sauver une chose qu’ils aiment que de les faire s’enthousiasmer à propos de quelque chose qui n’existe même pas encore.
Ni la technologie, ni la loi, ni le code, ni les marchés ne sont suffisants pour réformer les Géants de la tech. Mais l’un des concurrents rentables de ces derniers pourrait financer un mouvement législatif. Une réforme juridique peut encourager un fabricant à concevoir un meilleur outil. L’outil peut créer des clients pour une entreprise potentielle qui apprécie les avantages d’Internet mais qui veut obtenir ces outils sans passer par les Géants de la tech. Et cette entreprise peut obtenir un financement et consacrer une partie de ses bénéfices à la réforme juridique. 20 GOTO 10 (ou répétez l’opération autant de fois que nécessaire). Répétez l’opération, mais cette fois, allez plus loin ! Après tout, cette fois, vous commencez avec des adversaires des Géants de la tech plus faibles, un électorat qui comprend que les choses peuvent être améliorées, des concurrents des Géants de la tech qui contribueront à assurer leur propre avenir en finançant la réforme, et du code sur lequel d’autres programmeurs peuvent s’appuyer pour affaiblir encore plus les Géants de la tech.
L’hypothèse du capitalisme de surveillance, selon laquelle les produits des Géants de la tech fonctionnent vraiment aussi bien qu’ils le disent, et ça explique pourquoi c’est le bin’s partout, est trop simpliste sur la surveillance et encore plus sur le capitalisme. Les entreprises espionnent parce qu’elles croient à leurs propres baratin, elles le font aussi parce que les gouvernements les laissent faire, et parce que les avantages qu’elles tirent de l’espionnage sont tellement éphémères et minimes qu’elles doivent espionner toujours plus pour maintenir leur activité.
Et qu’est-ce qui fait que c’est le bin’s ? Le capitalisme.
Plus précisément, le monopole qui crée l’inégalité et l’inégalité qui crée le monopole. C’est une forme de capitalisme qui récompense les sociopathes qui détruisent l’économie réelle pour gonfler leurs résultats. Ils s’en sortent pour la même raison que les entreprises s’en sortent en espionnant : parce que nos gouvernements sont sous l’emprise à la fois d’une idéologie selon laquelle les monopoles sont tout à fait valables et aussi sous l’emprise de l’idée que dans un monde monopolistique, mieux vaut ne pas contrarier les monopoles.
La surveillance n’engendre pas un capitalisme dévoyé. Mais le capitalisme sans contrôle engendre la surveillance. La surveillance n’est pas malsaine parce qu’elle permet à certain de nous manipuler, elle est malsaine parce qu’elle réduit à néant notre capacité à être nous-mêmes, et parce qu’elle permet aux riches et aux puissants de découvrir qui réfléchit à la construction de guillotines et quelles crasses utiliser pour discréditer ces apprentis constructeurs avant même qu’ils n’arrivent à la scierie.
En profondeur
Avec tous les problèmes que posent les Géants de la tech, on pourrait être tenté de vouloir revenir à un monde dépourvu de technologie. Ne succombez pas à cette tentation.
La seule façon de résoudre notre problème avec les Géants de la tech est de le traiter en profondeur. Si notre avenir ne repose pas sur la haute technologie, ce sera parce que la civilisation s’est effondrée. Les Géants de la tech ont connecté un système nerveux planétaire pour l’ensemble de notre espèce, qui, avec les réformes et les changements de cap appropriés, peut nous aider à surmonter les défis existentiels auxquels sont confrontées notre espèce et notre planète. Il ne tient qu’à nous désormais de nous emparer des outils informatiques, en soumettant ce système nerveux électronique à un contrôle démocratique et transparent.
Je suis, au fond de moi et malgré ce que j’ai indiqué plus haut, un fervent partisan de la technologie. Pas dans le sens où il faudrait lui laisser le champ libre pour exercer son monopole sous prétexte qu’elle permet des « économies d’échelle » ou autre obscure particularité. Je suis partisan de la technologie parce que je crois qu’il est important de bien l’utiliser et que mal le faire serait une catastrophe absolue – et bien l’utiliser peut nous permettre de travailler tous ensemble pour sauver notre civilisation, notre espèce et notre planète.
OpenKeys.science, des clés de détermination pour ouvrir les portes de la biodiversité
Nous avons rencontré les serruriers de la biodiversité, une fine équipe qui veut vous donner les clés du vivant pour apprendre à mieux le connaître…
… et qui veut vous apprendre aussi (vous allez voir, c’est facile et plutôt amusant) à contribuer vous-même à la création et l’enrichissement d’un vaste trousseau de « clés ». Libres, naturellement.
À noter : cet article bénéficie désormais d’une version audio.
Merci à Sualtam, auteur de lectureaudio.fr pour cette contribution active.
Avant même de vous présenter, vous allez tout de suite nous expliquer ce qu’est une clé de détermination et à quoi ça sert, sinon, vous savez comme sont les lecteurs et les lectrices (exigeantes, intelligentes, attentionnées, etc.), ils et elles vont quitter cet article pour se précipiter sur Peertube afin de trouver une vidéo qui leur explique à notre place. Sébastien Une clé de détermination, c’est un peu comme un livre dont on est le héros ! Une succession de questions vous permet d’aboutir à la détermination d’un être vivant. Au fil des questions et de vos réponses, la liste des espèces possibles se réduit progressivement jusqu’à ce qu’il ne reste qu’un seul candidat (ou une liste très réduite). Certaines questions font parfois appel à du vocabulaire spécialisé, pas de panique ! Une illustration et une définition sont systématiquement présentes pour vous guider.
À titre d’exemple, vous pouvez consulter cette clé de détermination des insectes pollinisateurs.
1. Je réponds à des questions qui me sont proposées :
2. et ensuite visualiser les espèces candidates pour découvrir l’insecte que j’observe :
Donc si je dis qu’une clé de détermination c’est une liste de questions qui a pour objectif d’identifier à quelle espèce appartient un animal ou un végétal que j’observe, je simplifie un peu, mais j’ai bon ?
C’est l’idée oui.
Maintenant qu’on a compris de quoi on va parler, vous pouvez vous présenter !
Sébastien Turpin : Je suis enseignant de Sciences de la Vie et de la Terre et je travaille au Muséum national d’Histoire naturelle où je coordonne un programme de sciences participatives pour les scolaires. Et comme Thibaut, j’aime me balader dans la nature même si je n’arrive pas à y aller aussi souvent que je le souhaiterais !
Grégoire Loïs : Je suis naturaliste depuis toujours et j’ai la chance de travailler dans ce même établissement avec Sébastien, mais depuis un peu plus de 25 ans en ce qui me concerne. Je m’occupe comme lui de programmes de sciences participatives et plus particulièrement de bases de données.
Thibaut Arribe : Je suis développeur dans une petite SCOP qui s’appelle Kelis. On édite des solutions documentaires open-source pour produire et diffuser des documents numériques (vous avez peut-être déjà entendu parler de Scenari ou Opale, deux logiciels édités par Kelis). Accessoirement, je suis accompagnateur en montagne. J’emmène des groupes et particuliers se balader dans la nature sauvage des Pyrénées et des Cévennes.
Entrons dans le vif du sujet, c’est quoi OpenKeys.science ?
ThibautOpenKeys.science est un service en ligne qui permet de produire et diffuser des clés de détermination sous la forme de petit sites web autonomes.
Autonomes, ça veut dire qu’ils peuvent aller se promener tout seuls, sans attestation ?
Thibaut C’est exactement ça ! Pour tout un tas de bonnes et moins bonnes raisons, un site web est souvent dépendant de nombreux programmes à installer sur un serveur. Cette complexité rend bien service, mais l’installation de ce genre de site web en devient réservée à un public d’initiés.
Dans notre cas, une fois produit, rendre ce site “autonome” disponible sur le web est simple : n’importe quel espace web perso suffit (qu’il soit fourni par votre CHATON favori ou votre fournisseur d’accès à Internet).
Surtout, ça signifie qu’il est très simple d’en faire une copie pour l’emporter en balade dans la nature, et ça, c’est assez chouette.
Et donc produire des clés ? On a compris que c’était pas des vraies clés avec du métal, mais vous pouvez préciser en quoi ça consiste ?
Thibaut Prenons un exemple simple : tu veux avoir un moyen de différencier à tous les coups un frelon européen (Vespa crabro pour les intimes) d’un frelon asiatique (le fameux Vespa velutina). C’est important de faire la différence, le frelon asiatique est une espèce invasive qui fait des dégats, par exemple dans l’apiculture… (il raffole des boulettes d’abeille à l’automne ! Chacun son truc…)
Bon, avec OpenKeys, je vais commencer par créer une belle fiche illustrée sur le frelon européen dans un éditeur adapté. Ça pourrait ressembler à ça :
Ensuite, je fais la même pour son lointain cousin.
Voilà, toutes les espèces mentionnées par ma clé sont en place, je peux maintenant créer des critères qui vont m’aider à différencier ces deux espèces.
J’ai lu dans un bouquin que le critère le plus facile, c’est de regarder la couleur du thorax (la partie centrale du corps, entre la tête et l’abdomen). Pour les frelons asiatique, le thorax est de couleur unie (noire) et pour le frelon européen, c’est un mélange de bordeaux et noir.
J’associe chaque valeur à la fiche correspondante dans OpenKeys et le tour est joué. Je n’ai plus qu’à générer ma clé, la publier sur le Web et envoyer un email à la Fédération des apiculteurs pour les aider à faire connaître le frelon asiatique, ses risques sur les abeilles, et les moyens de le reconnaître.
Attends, je t’arrête, qui a envie de faire ça ?
Thibaut Très certainement plus de personnes que tu ne le crois ! Assez rapidement, on peut imaginer plusieurs publics :
les chercheuses et chercheurs qui s’intéressent à la biodiversité comme ceux de Vigie-nature
les enseignantes et enseignants (à l’école, en SVT au collège ou à l’université) pour un usage en classe
et au final, toutes les contemplatrices et contemplateurs de la nature et de la biodiversité, qui s’intéressent aux plantes, aux oiseaux, aux insectes, aux champignons… ou juste à ce qu’on peut observer à proximité de la maison.
OK, je vois. Et, une fois les clés produites, qu’en font ces structures et ces gens ?
Thibaut Ça dépend des profils… Le laboratoire Vigie-Nature utilise la clé des insectes pollinisateurs dans son observatoire de sciences participatives SPIPOLL par exemple.
Un⋅e enseignant⋅e va produire une ressource éducative pour sa classe (par exemple ici).
Un⋅e médiateur⋅rice de l’environnement va produire des clés pour le grand public (comme le fait l’ONF ici)
On voit aussi des naturalistes amateur⋅ices mettre leurs connaissances à disposition : le site Champ Yves en est un bon exemple.
De mon côté, j’utilise des clés pour progresser et identifier de nouvelles espèces dans mon activité en montagne. J’en propose aussi aux groupes que j’accompagne pour identifier les espèces de montagne qui les entoureront au cours leurs prochaines randonnées.
Sébastien et Grégoire, pouvez-vous nous expliquer ce qu’est Vigie-nature ? SébastienVigie-Nature est un programme de sciences participatives ouvert à tous. En s’appuyant sur des protocoles simples et rigoureux, il propose à chacun de contribuer à la recherche en découvrant la biodiversité qui nous entoure. Initié il y a plus de 30 ans avec le Suivi Temporel des Oiseaux Communs (STOC), le programme Vigie-Nature s’est renforcé depuis avec le suivi de nouveaux groupes : les papillons, chauves-souris, escargots, insectes pollinisateurs, libellules, plantes sauvages des villes…. En partageant avec les scientifiques des données de terrain essentielles les participants contribuent à l’amélioration des connaissances sur la biodiversité ordinaire et sur ses réponses face aux changements globaux (urbanisation, changement climatique…). Chacun peut y participer qu’il s’y connaisse ou non. À vous de jouer ! Grégoire En participant, on découvre un monde. Nous avons des échanges avec des participants qui se sont pris au jeu et sont devenus de véritables experts passionnés en quelques années alors qu’ils ne prêtaient pas attention aux plantes et aux animaux qui les entouraient. D’autres ont découvert cet univers puis ont butiné de programmes participatifs en programmes participatifs, au gré des découvertes. Enfin, il faut souligner que toute l’année, en ville comme à la campagne, on peut s’impliquer et contribuer à la recherche scientifique en s’enrichissant d’expériences de nature.
Donc si je veux, je peux observer des papillons et des abeilles dans mon jardin, utiliser les clés de détermination pour les identifier correctement, et remonter les résultats à Vigie-Nature ? C’est un peu comme améliorer les cartes d’OpenStreetMap, avec des êtres vivants à la place des bâtiments, mon analogie est bonne ?
Grégoire Oui en quelque sorte. Mais on pourrait même dire que ça va un peu plus loin qu’Open Street Map. C’est un peu comme si l’amélioration permanente d’Open Street Map était cadrée. Comme si, en participant, vous vous engagiez à faire une contribution régulière à Open Street Map, en revenant sur les mêmes lieux et dans les mêmes conditions. La différence est ténue mais elle est importante. En faisant de la sorte, vous pourriez suivre de manière rigoureuse les changements d’occupation du sol. Et en multipliant le nombre de personnes agissant de la sorte, il serait possible de modéliser puis d’extrapoler les divers changements, voire d’en faire des prédictions pour le futur.
Vous nous avez aussi parlé de SPIPOLL, c’est pour espionner les insectes ? (mais espion, ça prend un Y en anglais…) Grégoire Ici, Spipoll signifie Suivi Photographique des Insectes POLLinisteurs.
De quoi s’agit-il ? La pollinisation de laquelle dépend la reproduction des plantes à fleurs peut se faire de plusieurs manières.
Ainsi les graminées ou encore certains arbres profitent du vent pour faire circuler le pollen. C’est malheureusement à l’origine des allergies qu’on regroupe sous le nom de rhume des foins.
Mais pour beaucoup d’espèces, un bénéfice mutuel s’est mis en place entre plantes et insectes il y a un peu plus de 100 millions d’années (sous notre latitude, dans les tropiques, oiseaux et chauves-souris s’en mêlent). La plante fournit en abondance pollen et même nectar, un liquide sucré qui n’a d’autre rôle que d’attirer les insectes. Ces derniers viennent consommer ces deux ressources et passent de fleurs en fleurs chargés de minuscules grains de pollen. Ils assurent ainsi la reproduction sexuée des plantes et tirent bénéfice de ce service sous forme de ressources alimentaires.
Dans certains cas même, la plante ensorcelle littéralement l’insecte puisqu’elle l’attire et se fait passer pour un partenaire sexuel, trompant ainsi les mâles qui passent de fleurs en fleurs en transportant de petits sacs de pollens mais sans bénéficier de victuailles.
Suite aux incroyables bouleversement qu’ont subis les milieux naturels notamment depuis la révolution industrielle, on a pu constater des déclins d’insectes et des difficultés pour les plantes à échanger leurs gamètes. C’est crucial : sans cet échange, pas de fruits, et par exemple, aux États-Unis, les plantations d’orangers ont de grandes difficultés à fructifier. Dans ce cas, les arboriculteurs installent des ruches d’abeilles domestiques mais il semble que la situation soit tout de même critique. Les chercheurs en Écologie fondamentale se posent donc beaucoup de questions sur les communautés de pollinisateurs. On parle ici de communautés parce qu’on estime à entre cinq et dix mille le nombre d’espèces d’invertébrés impliqués dans la pollinisation en France ! Aucun spécialiste des insectes n’est à même d’étudier un si vaste nombre d’espèces, surtout qu’elles appartiennent à des groupes très variés (mouches, guêpes, abeilles et fourmis, coléoptères, papillons diurnes et nocturnes, punaises, etc.).
L’idée du Spipoll est de solliciter les personnes intéressées pour collecter des informations sur les réseaux d’interaction entre plantes et insectes partout sur le territoire. Il s’agit de prendre des photos de tout ce qui s’active sur les parties florales d’une espèce de plante dans un rayon de 5 mètres, puis de trier ces photos pour n’en garder qu’une par “bestiole différente” puis de tenter de ranger ces bestioles au sein d’une simplification taxonomique comptant quand même 630 branches !!! Et c’est là qu’une clé se révèle indispensable…
Vous avez mentionné au début de l’article que vous aimiez contempler la nature, ça fait envie, vous pouvez me décrire concrètement en quoi OpenKeys.science va m’y aider ?
Thibaut Savoir nommer les espèces qui nous entourent, c’est ouvrir une porte sur la complexité du vivant. De découverte en découverte, les paysages que nous contemplons nous apparaissent comme des lieux de vies ou cohabitent des milliers d’espèces. La diversité des espèces, des milieux et des relations entre ces espèces donne le vertige (et une soif d’en découvrir toujours plus).
En fournissant des clés à utiliser chez soi ou à emmener en balade, OpenKeys met le pied à l’étrier pour changer son regard sur la nature et pour découvrir tout ce qui se cache autour de nous.
Avec une clé de détermination dans la poche, je peux prendre le temps de m’arrêter, d’observer les alentours et d’identifier ce qui m’entoure. De découverte en découverte, c’est toute cette richesse de la nature qui s’offrira à vous…
Entre deux confinements, on va pouvoir retourner se balader, quelles clés sont disponibles sur OpenKeys.science pour une débutante ou un débutant ?
Sébastien Une clé des insectes pollinisateurs est déjà disponible, avec laquelle vous devriez pouvoir nommer la plupart des insectes que vous verrez dans votre jardin !
Nous travaillons également à proposer rapidement une clé pour :
Cet interview est aussi l’occasion de faire un appel… Vous voulez partager vos connaissances, venez faire un tour sur OpenKeys.science et créez votre clé. Par exemple, j’adorerais avoir une clé pour progresser dans l’identification des champignons.
Est-ce que vous ne seriez pas en train d’essayer de googliser la clé de détermination ? Et après vous allez capter toutes les données, les monétiser, disrupter, on connaît la suite…
Thibaut Hé hé ! Non, ce n’est pas du tout l’idée. Les contenus sources sont dans des formats libres et ouverts. Il est possible d’importer et exporter ses productions. Le service OpenKeys.science est construit avec des technologies libres (la suite logicielle Scenari et le modèle associé IDKey). Il est donc possible d’héberger ce genre de service ailleurs…
On peut considérer OpenKeys.science comme une îlot en interaction avec d’autres dans l’archipel des connaissances libres. Chez nous, on fabrique et diffuse des ressources pour comprendre la nature qui nous entoure. On utilise des technologies open source et les ressources produites sont sous licence libre pour favoriser la circulation des connaissances.
On a découvert qu’il existait plusieurs clés de détermination sur le site de TelaBotanica. Qu’est-ce que la vôtre aura de plus ?
Thibaut On peut discuter sur le plan technique. Les clés produites sur OpenKeys.science sont plus ergonomiques (ça, c’est pas moi, c’est Anna, l’ergonome qui a travaillé avec moi sur ces clés qui le dit). Elles s’adaptent mieux à l’affichage sur grand et petit écran. Elles utilisent des standards récents du Web pour être installées sur son ordinateur ou téléphone. Elles peuvent donc fonctionner sans Internet…
Après, ce n’est pas vraiment le sujet, je crois. Il ne s’agit pas de concurrencer des sites de référence comme TelaBotanica ou MycoDB par exemple. J’insiste, on ne souhaite pas centraliser les connaissances sur les clés ni challenger le reste du monde. L’idée est plutôt d’aider ces communautés de passionnés à partager. Je serai ravi de donner un coup de main aux autrices et auteurs de ces sites pour migrer techniquement leur contenu et ainsi leur permettre de générer leur clé sur OpenKeys.science ou ailleurs avec les mêmes technologies open-source. Elles ou ils y gagnent une clé plus facile à utiliser et à installer sur leur site ainsi qu’un outil pour mettre à jour et enrichir cette clé facilement.
Je suis nul en smartphone, mais un pote m’a parlé de Pl@ntnet, ça va pas vous couper l’herbe sous le pied ? Est-ce que des IA dans la blockchain avec des drones autonomes connectés 5.0 ne seraient pas plus efficaces que des humains qui se promènent avec des sites statiques ? C’est pas un peu old tech votre histoire ?
Sébastien Mais non 🙂 ! Ce n’est juste pas du tout les mêmes approches ! Une clé de détermination permet de guider le regard, d’apprendre à observer, de prendre son temps, bref de s’intéresser et de découvrir un être vivant… c’est certainement un peu plus long que de prendre une photo et d’attendre qu’une IA du Web 3.0 fasse tout le travail mais tellement plus valorisant !
Et puis, quand on a pris le temps d’observer à fond une espèce, lors de la prochaine rencontre vous vous en rappellerez tout seul et sans aide !
Thibaut Côté technique, plutôt que old tech, je revendiquerais plutôt le terme low tech. Oui, c’est volontairement un objet technique simple. Ça a plein d’avantages. Par exemple, c’est bien moins consommateur d’énergie, ça marchera encore bien après la fin d’un projet comme Pl@ntnet…
Votre projet démontre que logiciel libre et biodiversité peuvent aller de pair, et ça c’est une bonne nouvelle pour les gens qui se préoccupent de l’un et l’autre, et on est pas mal dans ce cas à Framasoft. Est-ce que vous avez d’autres idées dans le genre ? Thibaut Je crois que OpenKeys.science est un bon exemple d’interactions super positives entre ces deux mondes ! Disons que ça valide complètement l’intuition de départ… Oui, mettre en relation l’univers de l’informatique libre et la recherche en biodiversité nous profite à tous.
Je vais donc continuer d’explorer cette piste. D’un côté, rencontrer des chercheurs pour discuter des difficultés technologiques dans leurs travaux. De l’autre, identifier des développeurs qui pourraient les aider. Je pense que ça intéresserait du monde, par exemple pour prendre le temps de découvrir une nouvelle techno en menant un projet sympa, ou une organisation qui cherche un sujet pour créer un démonstrateur de son savoir-faire, ou encore des étudiants et enseignants à la recherche de projets à mener dans un cadre universitaire… les contextes ne manquent pas.
Et pourquoi pas, si tout ça fonctionne et rend service, fédérer la démarche dans une association ou une fondation.
(image d’illustration : CC BY-SA Dominik Stodulski, Wikipédia, https://fr.wikipedia.org/wiki/Coccinellidae)
PeerTube v3 : it’s a live, a liiiiive !
Today we are releasing a major new version of PeerTube, our alternative to centralized video platforms like YouTube.
Hosters can install this software on their servers and create a « PeerTube website » (an instance) where users can view and upload videos as an alternative to YouTube.
Unlike YouTube, PeerTube instances are :
Free: everyone has the right to use PeerTube software, you can look « under the hood » to see if the code is clean, you can even tweak it to your liking and share it!
Federated: each PeerTube site can synchronize with another to show their videos without hosting them on the server’s hard drive.
Decentralized: the videos use peer-to-peer streaming (from PeerTube to the internet user, but also from internet users to other internet users), to improve fluidity.
On this occasion, we launched a fundraising campaign, with the aim of financing the €60,000 that this development would cost us. Your have been very generous, as more than €68,000 have been raised.
We would like to thank you for this generosity especially in a difficult time for everyone. Thanks also to the sponsors of this v3, Octopuce (which proposes hosting and managed services of free-libre softwares, including PeerTube) and Code Lutin (development company specialising in free-libre software). But also the Debian project (one of the best known and most used free-libre GNU-Linux distributions) which, by their donation and their press release, gave PeerTube an international recognition.
Research, moderation, facilitation: key steps
The transition from v2.2 (June 2020 version) to v3 of PeerTube has been done in steps, with many minor improvements and at least one major development each time.
The global search of version 2.3, released during the summer, allows you to find videos in the whole federation (and not just in the federation-bubble of the PeerTube instance you are visiting).
The version 2.4 of September has improved the moderation tools, the display of playlists on external sites and the plugin system.
At the end of September, we unveiled SepiaSearch, the PeerTube videos and channels search engine based on the global search feature. That feature was not intended to be a separate search engine, with its web interface and indexed PeerTube instance list. The constraint was to make it free and affordable, so that others could host their own PeerTube search engine, with their own rules. Your feedback helped us understand that this was expected and necessary, so we added this step to our roadmap.
From October onwards, development focused on live and peer-to-peer video streaming. It was a big undertaking. The fact that it happened in a difficult 2020 year (for everyone) didn’t help, but we managed to complete the challenge with almost no delay! (or very little? :p)
A minimalist and efficient peer-to-peer live stream
The great feature of this v3 is live streaming, and we are proud to say that it works very well! 🎉🎉🎉
The lag (between video maker and audience) varies between 30 seconds and 1mn, as expected ;
Depending on the power of the server and its load (number of simultaneous live shows, transcoding, etc.), PeerTube can provide hundreds of simultaneous views (but we’re not sure that it will scale to thousands… at least not yet!);
Administration options are included for people hosting the instance;
The live can be done with most video streaming tool (we recommend the free-libre software OBS), with two options:
An « short-lived » live, with a unique identifier, will offer the possibility to save the video and display a replay on the same link;
A « permanent » live stream, which will work more like a Twitch channel, but without the replay option.
There is more than live in life
This v3 comes with many changes and improvements, thanks to the UX design work we did with Marie Cécile Godwin Paccard. Menus, notifications, administration and moderation tools have been redesigned.
This work on the menus is just one of the most visible examples of the many improvements that have been made to PeerTube to make its use more enjoyable. We are very pleased with the initial results and we are looking forward to continue this work.
« PeerTube, Backstage »
During the fundraising for this v3, a certain TomToom offered us an original contribution. Video director for Kintésens prod, he wanted to offer us a short behind-the-scenes movie about PeerTube. The challenge? To show the reality lived by our very small team, with our artisanal methods (we proudly claim the term), while respecting the will of Chocobozzz (the only paid developer on the project) not to show up on the screen and to devote his time to develop this v3.
The result? Here it is.
PeerTube’s future
The next step? Getting some rest! In the meantime, don’t hesitate to give us as much feedback as possible on these new features, specifically on the live. It’s by reading your contributions on our forum that we can understand what is expected, what we need to prioritize, what needs to be corrected or improved.
We do not foresee any crowdfunding in 2021, nor to finance the future v4 of PeerTube. These fundraising put us in a paradoxical situation: we want to raise awareness about the software to raise funds, so people are interested in it, so they want to contribute, but we have little time to welcome them, because our very small team has to work hard to develop the features promised in the fundraising.
So we haven’t drawn up a strict roadmap for 2021, in order to keep ourselves available and react to the needs we perceive. We just know that the main theme of PeerTube v4 will be customization.
Centralized platforms give little power over the display of videos (newest, most viewed, just that category, etc.), the look of their platform, or even customization of the channels. Giving these capabilities back to the people seems to us to be an interesting and fun way to go.
If you wish to help us in this approach, do not hesitate to promote PeerTube around you (with the JoinPeertube website) or to financially support our not-for-profit.
PeerTube n’est pas une plateforme, c’est un logiciel.
Ce logiciel, des hébergeurs peuvent l’installer sur leur serveur, et créer un « site web PeerTube » (on parle d’une instance) où des internautes peuvent voir et uploader des vidéos, comme une alternative à YouTube.
A la différence de YouTube, PeerTube permet de créer des instances :
Libres : tout le monde à le droit d’utiliser le logiciel PeerTube, on peut regarder « sous le capot » voir si le code est clean, on a même le droit de le bidouiller à sa sauce et de partager tout ça !
Fédérées : chacun des sites PeerTube peut se synchroniser avec les autres pour montrer les vidéos des copains sans les héberger sur le disque dur de leur serveur.
Décentralisées : les vidéos sont diffusées en pair-à-pair (de PeerTube vers l’internaute, mais aussi des internautes vers les autres internautes), pour une meilleure fluidité.
À cette occasion, nous avons lancée une collecte, avec pour objectif de financer les 60 000 € qu’allait nous coûter ce développement. Votre générosité a été au rendez-vous puisque plus de 68 000 € ont été récoltés.
Nous tenons à vous remercier de cette générosité tout particulièrement en une période difficile pour tout le monde. Merci aussi aux mécènes de cette v3, Octopuce (spécialisé dans l’infogérance d’outils libres, dont du PeerTube) et Code Lutin (entreprise de développement spécialisée dans le logiciel libre). Mais aussi le projet Debian (qui travaille autour d’une des distributions Libres les plus connues et utilisées) qui, par leur don et leur communiqué, offre ainsi à PeerTube une reconnaissance internationale.
Recherche, modération, facilitation : des étapes clés
Le passage de la v2.2 (version de juin 2020) à la v3 de PeerTube s’est fait par étapes, avec de nombreuses améliorations mineures et, à chaque fois, au moins un développement majeur.
La recherche globale de la version 2.3, sortie durant l’été, permet de trouver des vidéos dans l’ensemble de la fédération (et pas juste dans la bulle de l’instance PeerTube que l’on visite).
La version 2.4 de septembre a permis d’améliorer les outils de modération, l’affichage des playlists sur les sites externes et le système de plugin.
Fin septembre, nous avons dévoilé SepiaSearch, le moteur de recherche des vidéos et chaînes PeerTube basé sur la fonctionnalité de recherche globale. Ce n’était pas prévu de faire un moteur de recherche à part, avec son interface web et sa liste d’instances PeerTube indexées. La contrainte était de la faire libre et abordable, pour que d’autres puissent héberger leur moteur de recherche PeerTube, avec leurs règles. Vos nombreux retours nous ont fait comprendre que c’était attendu et nécessaire, alors nous avons rajouté cette étape à notre feuille de route.
C’est à partir d’octobre que le développement s’est focalisé sur la diffusion de vidéos en direct et en pair-à-pair. C’était un gros morceau, comme on dit, et le fait de vivre une année 2020 difficile (pour tout le monde) n’a pas aidé, mais on a réussi à relever le pari avec quasiment pas de retard ! (ou très peu ? :p)
Un direct en pair-à-pair minimaliste et efficace
La grande fonctionnalité de cette v3 sera la diffusion en direct, et nous sommes fier·es de pouvoir dire que ça marche très bien ! 🎉🎉🎉
Voici un lien vers la release officielle. Nous espérons que les personnes qui administrent des instances PeerTube appliqueront rapidement la mise à jour !
Le décalage (entre vidéaste et audience) varie entre 30 secondes et 1mn, comme prévu ;
Suivant la puissance du serveur et sa charge (nombre de directs simultanés, transcoding, etc.), PeerTube peut assurer des centaines de vues en simultané (mais on n’assure pas si c’est des milliers… ou du moins pas encore !) ;
Des options d’administration sont incluses pour les personnes qui hébergent l’instance ;
Le direct se fait avec un outil de flux vidéo (nous recommandons le logiciel libre OBS), avec deux options :
Un direct « éphémère », avec un identifiant unique, qui offrira la possibilité de sauvegarder la vidéo pour créer un replay sur le même lien ;
Un direct « permanent », dont le fonctionnement ressemblera plus à celui d’une chaîne Twitch, mais sans le replay.
Il n’y a pas que le live dans la vie
Cette v3 est livrée avec de nombreux changements et améliorations, grâce au travail de design UX que nous avons fait avec Marie Cécile Godwin Paccard. Les menus, les notifications, et les outils d’administration et de modération ont été refondus.
Ce travail sur les menus n’est qu’un des exemples les plus visibles des nombreuses améliorations apportées à PeerTube pour rendre son utilisation plus agréable. Nous sommes ravi·es de ces premiers résultats et comptons poursuivre dans cette voie.
Les coulisses de PeerTube
À l’occasion de la collecte pour financer cette v3, un certain TomToom nous a proposé une contribution originale. Réalisateur de vidéos pour Kintésens prod., il a voulu nous offrir un reportage sur les coulisses de PeerTube. Le défi ? Montrer la réalité de notre toute petite équipe, aux méthodes artisanales (nous revendiquons le terme avec fierté), tout en respectant la volonté de Chocobozzz (l’unique développeur salarié sur le projet) de ne pas se montrer à l’écran et de consacrer son temps à développer cette v3.
Le résultat ? le voici :
L’avenir de PeerTube
La prochaine étape ? Se reposer ! Pendant ce temps, n’hésitez pas à nous faire un maximum de retours sur ces nouvelles fonctionnalités, spécifiquement sur le live. C’est en lisant vos contributions sur notre forum que l’on peut comprendre ce qui est attendu, ce que l’on doit prioriser, ce qu’il faut corriger ou améliorer.
Nous ne prévoyons pas de crowdfunding en 2021, pour financer la future v4 de PeerTube. Ces collectes nous mettent dans une situation de paradoxe : on veut faire parler du logiciel pour récolter des financements, alors des personnes s’y intéressent, alors elles veulent contribuer, mais on a peu de temps pour les accueillir, car notre toute petite équipe doit travailler à développer les fonctionnalités promises dans la collecte…
Nous n’avons donc pas dressé une feuille de route stricte pour 2021, afin de garder de la disponibilité pour réagir aux besoins que nous percevrons. Nous savons juste que le thème principal de la v4 de PeerTube sera la personnalisation.
Les plateformes centralisatrices donnent peu de pouvoir sur l’affichage des vidéos (les plus récentes, les plus vues, juste cette catégorie, etc.), sur le look de leur plateforme, ou même sur la personnalisation pour les vidéastes. Redonner ces capacités aux personnes concernées nous semble une piste intéressante et amusante.
Si vous souhaitez nous accompagner dans cette démarche, n’hésitez pas à promouvoir PeerTube autour de vous (avec le site JoinPeertube) ou à soutenir financièrement notre association.
Le Web, tout le monde s’en sert et beaucoup en sont très contents. Mais, même parmi ceux et celles qui sont ravi·es de l’utiliser, il y a souvent des critiques. Elles portent sur de nombreux aspects et je ne vais pas essayer de lister ici toutes ces critiques. Je vais parler d’un problème souvent ressenti : le Web n’est-il pas devenu trop compliqué ?
À noter : cet article bénéficie désormais d’une version audio.
Merci à Sualtam, auteur de lectureaudio.fr pour cette contribution active.
Je ne parle pas de la complexité pour l’utilisateur, par exemple des problèmes qu’il ou elle peut avoir avec telle ou telle application Web, ou tel formulaire incompréhensible ou excluant. Non, je parle de la complexité des nombreuses technologies sous-jacentes. Alors, si vous n’êtes pas technicien·ne, vous avez peut-être envie d’arrêter votre lecture ici en pensant qu’on ne parlera que de technique. Mais ce n’est pas le cas, cet article est pour tous et toutes. (Ceci dit, si vous arrêtez votre lecture pour jouer avec le chat, manger un bon plat, lire un livre passionnant ou faire des câlins à la personne appropriée, cela ne me dérange pas et je vous souhaite un agréable moment.)
Mais revenons à l’objection « OK, les techniques utilisées dans le Web sont compliquées mais cela ne concerne que les développeuses et développeurs, non ? » Eh bien non car cette complication a des conséquences pour tous et toutes. Elle se traduit par des logiciels beaucoup plus complexes, donc elle réduit la concurrence, très peu d’organisations pouvant aujourd’hui développer un navigateur Web. Elle a pour conséquence de rendre l’utilisation du Web plus lente : bien que les machines et les réseaux aient nettement gagné en performance, le temps d’affichage d’une page ne cesse d’augmenter. Passer à la fibre ou à la 5G ne se traduira pas forcément par un gain de temps, puisque ce sont souvent les calculs nécessaires à l’affichage qui ralentissent la navigation. Et enfin cette complication augmente l’empreinte environnementale du Web, en imposant davantage d’opérations aux machines, ce qui pousse au remplacement plus rapide des terminaux.
L’insoutenable lourdeur du Web
Une page Web d’aujourd’hui n’est en effet pas une simple description d’un contenu. Elle inclut la « feuille de style », rédigée dans le langage CSS, qui va indiquer comment présenter la page, du JavaScript, un langage de programmation qui va être exécuté pour faire varier le contenu de la page, des vidéos, et d’autres choses qui souvent distraient du contenu lui-même. Je précise que je ne parle pas ici des applications tournant sur le Web (comme une application d’accès au courrier électronique, ou une application de gestion des évènements ou l’application maison utilisée par les employés d’une organisation pour gérer leur travail), non, je parle des pages Web de contenu, qui ne devraient pas avoir besoin de toute cette artillerie.
Du fait de cette complexité, il n’existe aujourd’hui que quatre ou cinq navigateurs Web réellement distincts. Écrire un navigateur Web aujourd’hui est une tâche colossale, hors de portée de la très grande majorité des organisations. La concurrence a diminué sérieusement. La complexité technique a donc des conséquences stratégiques pour le Web. Et ceci d’autant plus qu’il n’existe derrière ces navigateurs que deux moteurs de rendu, le cœur du navigateur, la partie qui interprète le langage HTML et le CSS et dessine la page. Chrome, Edge et Safari utilisent le même moteur de rendu, WebKit (ou l’une de ses variantes).
Et encore tout ne tourne pas sur votre machine. Derrière votre écran, l’affichage de la moindre page Web va déclencher d’innombrables opérations sur des machines que vous ne voyez pas, comme les calculs des entreprises publicitaires qui vont, en temps réel, déterminer les « meilleures » publicités à vous envoyer dans la figure ou comme l’activité de traçage des utilisateurs, notant en permanence ce qu’ils font, d’où elles viennent et de nombreuses autres informations, dont beaucoup sont envoyées automatiquement par votre navigateur Web, qui travaille au moins autant pour l’industrie publicitaire que pour vous. Pas étonnant que la consommation énergétique du numérique soit si importante. Et ces calculs côté serveur ont une grande influence sur la capacité du serveur à tenir face à une charge élevée, comme on l’a vu pendant les confinements Covid-19. Les sites Web de l’Éducation Nationale ne tenaient pas le coup, même quand il s’agissait uniquement de servir du contenu statique.
La surveillance coûte cher
La complexité du Web cache en effet également cette activité de surveillance, pratiquée aussi bien par les entreprises privées que par les États. Autrefois, acheter un journal à un kiosque et le lire étaient des activités largement privées. Aujourd’hui, toute activité sur le Web est enregistrée et sert à nourrir les bases de données du monde de la publicité, ou les fichiers des États. Comme exemple des informations envoyées par votre navigateur, sans que vous en ayez clairement connaissance, on peut citer bien sûr les fameux cookies. Ce sont des petits fichiers choisis par le site Web et envoyés à votre navigateur. Celui-ci les stockera et, lors d’une visite ultérieure au même site Web, renverra le cookie. C’est donc un outil puissant de suivi de l’utilisateur. Et ne croyez pas que, si vous visitez un site Web, seule l’organisation derrière ce site pourra vous pister. La plupart des pages Web incluent en effet des ressources extérieures (images, vidéos, boutons de partage), pas forcément chargés depuis le site Web que vous visitez et qui ont eux aussi leurs cookies. La loi Informatique et Libertés (et, aujourd’hui, le RGPD) impose depuis longtemps que les utilisateurs soient prévenus de ce pistage et puissent s’y opposer, mais il a fallu très longtemps pour que la CNIL tape sur la table et impose réellement cette information des utilisateurs, le « bandeau cookies ». Notez qu’il n’est pas obligatoire. D’abord, si le site Web ne piste pas les utilisateurs, il n’y a pas d’obligation d’un tel bandeau, ensuite, même en cas de pistage, de nombreuses exceptions sont prévues.
Les bandeaux cookies sont en général délibérément conçus pour qu’il soit difficile de refuser. Le but est que l’utilisateur clique rapidement sur « Accepter » pour en être débarrassé, permettant ainsi à l’entreprise qui gère le site Web de prétendre qu’il y a eu consentement.
Désolé de la longueur de ce préambule, d’autant plus qu’il est très possible que, en tant que lectrice ou lecteur du Framablog, vous soyez déjà au courant. Mais il était nécessaire de revenir sur ces problèmes du Web pour mieux comprendre les projets qui visent à corriger le tir. Notez que les évolutions néfastes du Web ne sont pas qu’un problème technique. Elles sont dues à des raisons économiques et politiques et donc aucune approche purement technique ne va résoudre complètement le problème. Cela ne signifie pas que les techniciens et techniciennes doivent rester les bras croisés. Ils et elles peuvent apporter des solutions partielles au problème.
Bloquer les saletés
Première approche possible vers un Web plus léger, tenter de bloquer les services néfastes. Tout bon navigateur Web permet ainsi un certain contrôle de l’usage des cookies. C’est par exemple ce que propose Firefox dans une rubrique justement nommée « Vie privée et sécurité ».
On peut ainsi bloquer une partie du système de surveillance. Cette approche est très recommandée mais notez que Firefox vous avertit que cela risque d’ « empêcher certains sites de fonctionner ». Cet avertissement peut faire hésiter certains utilisateurs, d’autant plus qu’avec les sites en question, il n’y aura aucun message clair, uniquement des dysfonctionnements bizarres. La plupart des sites Web commerciaux sont en effet développés sans tenir compte de la possibilité que le visiteur ait activé ces options. Si le site de votre banque ne marche plus après avoir changé ces réglages, ne comptez pas sur le support technique de la banque pour vous aider à analyser le problème, on vous dira probablement uniquement d’utiliser Google Chrome et de ne pas toucher aux réglages. D’un côté, les responsables du Web de surveillance disent qu’on a le choix, qu’on peut changer les réglages, d’un autre côté ils exercent une pression sociale intense pour qu’on ne le fasse pas. Et puis, autant on peut renoncer à regarder le site Web d’un journal lorsqu’il ne marche pas sans cookies, autant on ne peut guère en faire autant lorsqu’il s’agit de sa banque.
De même qu’on peut contrôler, voire débrayer les cookies, on peut supprimer le code Javascript. À ma connaissance, Firefox ne permet pas en standard de le faire, mais il existe une extension nommée NoScript pour le faire. Comme avec les cookies, cela posera des problèmes avec certains sites Web et, pire, ces problèmes ne se traduiront pas par des messages clairs mais par des dysfonctionnements. Là encore, peu de chance que le logiciel que l’entreprise en question a chargé de répondre aux questions sur Twitter vous aide.
Enfin, un troisième outil pour limiter les divers risques du Web est le bloqueur de publicité. (Personnellement, j’utilise uBlock Origin.)
Absolument indispensable à la fois pour éviter de consacrer du temps de cerveau à regarder les publicités, pour la sécurité (les réseaux de distribution de la publicité sont l’endroit idéal pour diffuser du logiciel malveillant) et aussi pour l’empreinte environnementale, le bloqueur empêchant le chargement de contenus qui feront travailler votre ordinateur pour le profit des agences de publicité et des annonceurs.
Un navigateur Web léger ?
Une solution plus radicale est de changer de navigateur Web. On peut ainsi préférer le logiciel Dillo, explicitement conçu pour la légèreté, les performances et la vie privée. Dillo marche parfaitement avec des sites Web bien conçus, mais ceux-ci ne sont qu’une infime minorité. La plupart du temps, le site sera affiché de manière bizarre. Et on ne peut pas le savoir à l’avance ; naviguer sur le Web avec Dillo, c’est avoir beaucoup de mauvaises surprises et seulement quelques bonnes (le Framablog, que vous lisez en ce moment, marche très bien avec Dillo).
Autre navigateur « alternatif », le Tor Browser. C’est un Firefox modifié, avec NoScript inclus et qui, surtout, ne se connecte pas directement au site Web visité mais passe par plusieurs relais du réseau Tor, supprimant ainsi un moyen de pistage fréquent, l’adresse IP de votre ordinateur. Outre que certains sites ne réagissent pas bien aux réglages du Tor Browser, le passage par le réseau Tor se traduit par des performances décrues.
Toutes ces solutions techniques, du bloqueur de publicités au navigateur léger et protecteur de la vie privée, ont un problème commun : elles sont perçues par les sites Web comme « alternatives » voire « anormales ». Non seulement le site Web risque de ne pas fonctionner normalement mais surtout, on n’est pas prévenu à l’avance, et même après on n’a pas de diagnostic clair. Le Web, pourtant devenu un écosystème très complexe, n’a pas de mécanismes permettant d’exprimer des préférences et d’être sûr qu’elles sont suivies. Certes, il existe des techniques comme l’en-tête « Do Not Track » où votre navigateur annonce qu’il ne souhaite pas être pisté mais il est impossible de garantir qu’il sera respecté et, vu le manque d’éthique de la grande majorité des sites Web, il vaut mieux ne pas compter dessus.
Gemini, une solution de rupture
Cela a mené à une approche plus radicale, sur laquelle je souhaitais terminer cet article, le projet Gemini. Gemini est un système complet d’accès à l’information, alternatif au Web, même s’il en reprend quelques techniques. Gemini est délibérément très simple : le protocole, le langage parlé entre le navigateur et le serveur, est très limité, afin d’éviter de transmettre des informations pouvant servir au pistage (comme l’en-tête User-Agent du Web) et il n’est pas extensible. Contrairement au Web, aucun mécanisme n’est prévu pour ajouter des fonctions, l’expérience du Web ayant montré que ces fonctions ne sont pas forcément dans l’intérêt de l’utilisateur. Évidemment, il n’y a pas l’équivalent des cookies. Et le format des pages est également très limité, à la fois pour permettre des navigateurs simples (pas de CSS, pas de Javascript), pour éviter de charger des ressources depuis un site tiers et pour diminuer la consommation de ressources informatiques par le navigateur. Il n’y a même pas d’images. Voici deux exemples de navigateurs Gemini :
Gemini est un système récent, s’inspirant à la fois de systèmes anciens (comme le Web des débuts) et de choses plus récentes (ainsi, contrairement au Web, le chiffrement du trafic, pour compliquer la surveillance, est systématique). Il reprend notamment le concept d’URL donc par exemple le site d’informations sur les alertes de tempêtes solaires utilisé plus haut à titre d’exemple est gemini://gemini.bortzmeyer.org/presto/. Gemini est actuellement en cours de développement, de manière très ouverte, notamment sur la liste de diffusion publique du projet. Tout le monde peut participer à sa définition. (Mais, si vous voulez le faire, merci de lire la FAQ d’abord, pour ne pas recommencer une question déjà discutée.) Conformément aux buts du projet, écrire un client ou un serveur Gemini est facile et des dizaines de logiciels existent déjà. Le nom étant une allusion aux missions spatiales étatsuniennes Gemini, mais signifiant également « jumeaux » en latin, beaucoup de ces logiciels ont un nom qui évoque le spatial ou la gémellité. Pour la même raison spatiale, les sites Gemini se nomment des capsules, et il y en a actuellement quelques centaines opérationnelles. (Mais, en général, avec peu de contenu original. Gemini ressemble pour l’instant au Web des débuts, avec du contenu importé automatiquement d’autres services, et du contenu portant sur Gemini lui-même.)
On a vu que Gemini est une solution très disruptive et qui ne sera pas facilement adoptée, tant le marketing a réussi à convaincre que, sans vidéos incluses dans la page, on ne peut pas être vraiment heureux. Gemini ne prétend pas à remplacer le Web pour tous ses usages. Par exemple, un CMS, logiciel de gestion de contenu, comme le WordPress utilisé pour cet article, ne peut pas être fait avec Gemini, et ce n’est pas son but. Son principal intérêt est de nous faire réfléchir sur l’accès à l’information : de quoi avons-nous besoin pour nous informer ?
Quand bien même nous exercerions un contrôle démocratique sur nos États et les forcerions à arrêter de piller les silos de données comportementales du capitalisme de surveillance, ce dernier continuera à nous maltraiter. Nous vivons une époque parfaitement éclairée par Zuboff. Son chapitre sur le sanctuaire – ce sentiment de ne pas être observé – est une magnifique ode à l’introspection, au calme, à la pleine conscience et à la tranquillité.
Quand nous sommes observé⋅e, quelque chose change. N’importe quel parent sait ce que cela signifie. Vous pouvez lever la tête de votre bouquin (ou plus vraisemblablement de votre téléphone) et observer votre enfant dans un état profond de réalisation de soi et d’épanouissement, un instant où il est en train d’apprendre quelque chose à la limite de ses capacités, qui demande une concentration intense. Pendant un court laps de temps, vous êtes sidéré⋅e, et vous observez ce moment rare et beau de concentration qui se déroule devant vos yeux, et puis votre enfant lève la tête, vous voit le regarder, et ce moment s’évanouit. Pour grandir, vous devez être vous-même et donner à voir votre moi authentique, c’est à ce moment que vous devenez vulnérable, tel un bernard-l’hermite entre deux coquilles.
Cette partie de vous, tendre et fragile, que vous exposez au monde dans ces moments-là, est bien trop délicate pour être révélée à autrui, pas même à une personne à laquelle vous faites autant confiance qu’un enfant à ses parents.
À l’ère numérique, notre moi authentique est inextricablement mêlé à de notre vie en ligne. Votre historique de recherche est un enregistrement en continu des questions que vous vous posez. Votre historique de géolocalisation est un registre des endroits que vous cherchiez et des expériences que vous avez vécues en ces lieux. Votre réseau social révèle les différentes facettes de votre personnalité ainsi que les gens avec qui vous êtes en contact.
Être observé pendant ces activités, c’est perdre le sanctuaire de votre moi authentique. Mais il y a une autre manière pour le capitalisme de surveillance de nous dérober notre capacité d’être véritablement nous-même : nous rendre anxieux. Ce capitalisme de surveillance n’est pas vraiment un rayon de contrôle mental, pas besoin de ça pour rendre quelqu’un anxieux. Après tout, l’anxiété est le synonyme d’agitation, et pour qu’une personne se sente agitée, il n’y a pas vraiment besoin de la secouer. Il suffit d’aiguillonner et de piquer et de notifier et de bourdonner autour et de bombarder de manière intermittente et juste assez aléatoire pour que notre système limbique ne puisse jamais vraiment s’y habituer.
Nos appareils et nos services sont polyvalents dans le sens où ils peuvent connecter n’importe quoi ou n’importe qui à n’importe quoi ou à n’importe qui d’autre, et peuvent aussi exécuter n’importe quel programme. Cela signifie que ces rectangles de distractions dans nos poches détiennent nos plus précieux moments avec nos proches, tout comme les communications les plus urgentes et les plus sensibles (de « je suis en retard, peux-tu aller chercher les gamins ? » jusqu’à « mauvaise nouvelle du docteur, il faut qu’on parle TOUT DE SUITE »), mais aussi les pubs pour les frigos et les messages de recrutement nazis.
À toute heure du jour ou de la nuit, nos poches sonnent, font voler en éclat notre concentration, détruisent le fragile maillage de nos réflexions quand nous avons besoin de penser des situations difficiles. Si vous enfermiez quelqu’un dans une cellule et que vous l’agitiez de la sorte, on appellerait ça de la torture par privation de sommeil, et ce serait considéré comme un crime de guerre par la Convention de Genève.
Affliger les affligés
Les effets de la surveillance sur notre capacité à être nous-mêmes ne sont pas les mêmes pour tout le monde. Certain⋅e⋅s d’entre nous ont la chance de vivre à une époque et dans un lieu où tous les faits les plus importants de leur vie sont socialement acceptés et peuvent être exposés au grand jour sans en craindre les conséquences sociales.
Mais pour beaucoup d’entre nous, ce n’est pas le cas. Rappelez-vous que, d’aussi loin qu’on s’en souvienne, de nombreuses façons d’être, considérées aujourd’hui comme socialement acceptables, ont donné lieu à de terribles condamnations sociales, voire à des peines d’emprisonnement. Si vous avez 65 ans, vous avez connu une époque où les personnes vivant dans des « sociétés libres » pouvaient être emprisonnées ou punies pour s’être livrées à des pratiques homosexuelles, pour être tombées amoureuses d’une personne dont la peau était d’une couleur différente de la leur, ou pour avoir fumé de l’herbe.
Aujourd’hui, non seulement ces pratiques sont dépénalisées dans une grande partie du monde, mais en plus, elles sont considérées comme normales, et les anciennes prohibitions sont alors vues comme des vestiges d’un passé honteux et regrettable.
Comment sommes-nous passés de la prohibition à la normalisation ? Par une activité privée et personnelle : les personnes dont l’homosexualité étaient secrète ou qui fumaient de l’herbe en secret, ou qui aimaient quelqu’un d’une couleur de peau différente de la leur en secret, étaient susceptibles de représailles si elles dévoilaient leur moi authentique. On les empêchait de défendre leur droit à exister dans le monde et à être en accord avec elles-mêmes. Mais grâce à la sphère privée, ces personnes pouvaient former des liens forts avec leurs amis et leurs proches qui ne partageaient pas leurs manières de vivre mal vues par la société. Elles avaient des conversations privées dans lesquelles elles se dévoilaient, elles révélaient leur moi authentique à leurs proches, puis les ralliaient à leur cause au fil des conversations.
Le droit de choisir le moment et la manière d’aborder ces conversations a joué un rôle fondamental dans le renversement des normes. C’est une chose de faire son coming out à son père au cours d’une sortie de pêche à l’écart du monde, c’en est une autre de tout déballer pendant le repas de Noël, en présence de son oncle raciste sur Facebook prêt à faire une scène.
Sans sphère privée, il est possible qu’aucun de ces changements n’aurait eu lieu et que les personnes qui en ont bénéficié auraient subi une condamnation sociale pour avoir fait leur coming out face à un monde hostile ou alors elles n’auraient jamais pu révéler leur moi authentique aux personnes qu’elles aiment.
Et donc, à moins que vous ne pensiez que notre société ait atteint la perfection sociale – et que vos petits-enfants vous demanderont dans 50 ans de leur raconter comment, en 2020, toutes les injustices ont été réparées et qu’il n’y avait plus eu de changement à apporter –, vous devez vous attendre à ce qu’en ce moment même figurent parmi vos proches des personnes, dont le bonheur est indissociable du vôtre, et dont le cœur abrite un secret qui les empêche toujours de dévoiler leur moi authentique en votre présence. Ces personnes souffrent et emporteront leur chagrin secret dans leur tombe, et la source de ce chagrin, ce sera les relations faussées qu’elles entretenaient avec vous.
Une sphère privée est nécessaire au progrès humain.
Toute donnée collectée et conservée finit par fuiter
L’absence de vie privée peut empêcher les personnes vulnérables d’exprimer leur moi authentique et limiter nos actions en nous privant d’un sanctuaire. Mais il existe un autre risque, encouru par tous et pas seulement par les personnes détenant un secret : la criminalité.
Les informations d’identification personnelle présentent un intérêt très limité pour contrôler l’esprit des gens, mais le vol d’identité – terme fourre-tout pour désigner toute une série de pratiques délictueuses graves, susceptibles de détruire vos finances, de compromettre votre intégrité personnelle, de ruiner votre réputation, voire de vous exposer à un danger physique – est en pleine expansion.
Les attaquants ne se limitent pas à utiliser des données issues de l’intrusion dans une seule et même source.
De nombreux services ont subi des violations qui ont révélé des noms, des adresses, des numéros de téléphone, des mots de passe, des préférences sexuelles, des résultats scolaires, des réalisations professionnelles, des démêlés avec la justice, des informations familiales, des données génétiques, des empreintes digitales et autres données biométriques, des habitudes de lecture, des historiques de recherche, des goûts littéraires, des pseudonymes et autres données sensibles. Les attaquants peuvent fusionner les données provenant de ces violations pour constituer des dossiers très détaillés sur des sujets choisis au hasard, puis utiliser certaines parties des données pour commettre divers délits.
Les attaquants peuvent, par exemple, utiliser des combinaisons de noms d’utilisateur et de mots de passe dérobés pour détourner des flottes entières de véhicules commerciaux équipés de systèmes de repérage GPS et d’immobilisation antivol, ou pour détourner des babyphones afin de terroriser les tout-petits en diffusant du contenu audio pornographique. Les attaquants utilisent les données divulguées pour tromper les opérateurs téléphoniques afin qu’ils leur communiquent votre numéro de téléphone, puis ils interceptent des codes d’authentification à deux facteurs par SMS pour pirater votre courrier électronique, votre compte bancaire ou vos portefeuilles de crypto-monnaie.
Les attaquants rivalisent de créativité pour trouver des moyens de transformer les données divulguées en armes. Ces données sont généralement utilisées pour pénétrer dans les entreprises afin d’accéder à davantage de données.
Tout comme les espions, les fraudeurs en ligne dépendent entièrement des entreprises qui collectent et conservent nos données à outrance. Les agences d’espionnage paient voire intimident parfois des entreprises pour avoir accès à leurs données, elles peuvent aussi se comporter comme des délinquants et dérober du contenu de bases de données d’entreprises.
La collecte excessive de données entraîne de graves conséquences sociales, depuis la destruction de notre moi authentique jusqu’au recul du progrès social, de la surveillance de l’État à une épidémie de cybercriminalité. La surveillance commerciale est également une aubaine pour les personnes qui organisent des campagnes d’influence, mais c’est le cadet de nos soucis.
L’exceptionnalisme technologique critique reste un exceptionnalisme technologique
Les géants de la tech ont longtemps pratiqué un exceptionnalisme technologique : cette idée selon laquelle ils ne devraient pas être soumis aux lois et aux normes du commun des mortels. Des devises comme celle de Facebook « Move fast and break things » [avancer vite et casser des choses, NdT] ont provoqué un mépris compréhensible envers ces entreprises à la rhétorique égoïste.
L’exceptionnalisme technologique nous a tous mis dans le pétrin. Il est donc assez ironique et affligeant de voir les critiques des géants de la tech commettre le même péché.
Les géants de la tech ne forment pas un « capitalisme voyou » qui ne peut être guéri par les remèdes traditionnels anti-monopole que sont le démantèlement des trusts (forcer les entreprises à se défaire des concurrents qu’elles ont acquis) et l’interdiction des fusions monopolistiques et autres tactiques anticoncurrentielles. Les géants de la tech n’ont pas le pouvoir d’utiliser l’apprentissage machine pour influencer notre comportement de manière si approfondie que les marchés perdent la capacité de punir les mauvais acteurs et de récompenser les concurrents vertueux. Les géants de la tech n’ont pas de rayon de contrôle mental qui réécrit les règles, si c’était le cas, nous devrions nous débarrasser de notre vieille boîte à outils.
Cela fait des siècles que des gens prétendent avoir mis au point ce rayon de contrôle mental et cela s’est toujours avéré être une arnaque, même si parfois les escrocs se sont également arnaqués entre eux.
Depuis des générations, le secteur de la publicité améliore constamment sa capacité à vendre des services publicitaires aux entreprises, tout en ne réalisant que des gains marginaux sur la vente des produits de ces entreprises. La complainte de John Wanamaker selon laquelle « La moitié de l’argent que je dépense en publicité est gaspillée, mais je ne sais pas quelle moitié » témoigne du triomphe des directeurs de la publicité qui ont réussi à convaincre Wanamaker que la moitié seulement de ce qu’il dépense était gaspillée.
L’industrie technologique a fait d’énormes progrès dans la capacité à convaincre les entreprises qu’elles sont douées pour la publicité, alors que leurs améliorations réelles en matière de publicité, par opposition au ciblage, ont été plutôt modestes. La vogue de l’apprentissage machine – et l’invocation mystique de l’« intelligence artificielle » comme synonyme de techniques d’inférence statistique directe – a considérablement renforcé l’efficacité du discours commercial des géants de la tech, car les spécialistes du marketing ont exploité le manque de connaissance technique des clients potentiels pour s’en tirer avec énormément de promesses et peu de résultats.
Il est tentant de penser que si les entreprises sont prêtes à déverser des milliards dans un projet, celui-ci doit être bon. Pourtant, il arrive souvent que cette règle empirique nous fasse faire fausse route. Par exemple, on n’a pratiquement jamais entendu dire que les fonds d’investissement surpassent les simples fonds indiciels, et les investisseurs qui confient leur argent à des gestionnaires de fonds experts s’en sortent généralement moins bien que ceux qui confient leur épargne à des fonds indiciels. Mais les fonds gérés représentent toujours la majorité de l’argent investi sur les marchés, et ils sont soutenus par certains des investisseurs les plus riches et les plus pointus du monde. Leur vote de confiance dans un secteur aussi peu performant est une belle leçon sur le rôle de la chance dans l’accumulation de richesses, et non un signe que les fonds de placement sont une bonne affaire.
Les affirmations du système de contrôle mental des géants de la tech laissent à penser que cette pratique est une arnaque. Par exemple, avec le recours aux traits de personnalité des « cinq grands » comme principal moyen d’influencer les gens, même si cette théorie des cinq grands n’est étayée par aucune étude à grande échelle évaluée par des pairs, et qu’elle est surtout l’apanage des baratineurs en marketing et des psychologues pop.
Le matériel promotionnel des géants de la tech prétend aussi que leurs algorithmes peuvent effectuer avec précision une « analyse des sentiments » ou détecter l’humeur des gens à partir de leurs « micro-expressions », mais il s’agit là d’affirmations marketing et non scientifiques. Ces méthodes n’ont pas été testées par des scientifiques indépendants, et lorsqu’elles l’ont été, elles se sont révélées très insuffisantes. Les micro-expressions sont particulièrement suspectes car il a été démontré que les entreprises spécialisées dans la formation de personnes pour les détecter sont moins performantes que si on laissait faire le hasard.
Les géants de la tech ont été si efficaces pour commercialiser leurs soi-disant super-pouvoirs qu’il est facile de croire qu’elles peuvent commercialiser tout le reste avec la même habileté, mais c’est une erreur de croire au baratin du marketing. Aucune déclaration d’une entreprise sur la qualité de ses produits n’est évidemment impartiale. Le fait que nous nous méfions de tout ce que disent les géants de la tech sur le traitement des données, le respect des lois sur la protection de la vie privée, etc. est tout à fait légitime, car pourquoi goberions-nous la littérature marketing comme s’il s’agissait d’une vérité d’évangile ? Les géants de la tech mentent sur à peu près tout, y compris sur le fonctionnement de leurs systèmes de persuasion alimentés par l’apprentissage automatique.
Ce scepticisme devrait imprégner toutes nos évaluations des géants de la tech et de leurs capacités supposées, y compris à la lecture attentive de leurs brevets. Zuboff confère à ces brevets une importance énorme, en soulignant que Google a revendiqué de nouvelles capacités de persuasion dans ses dépôts de brevets. Ces affirmations sont doublement suspectes : d’abord parce qu’elles sont très intéressées, et ensuite parce que le brevet lui-même est notoirement une invitation à l’exagération.
Les demandes de brevet prennent la forme d’une série de revendications et vont des plus étendues aux plus étroites. Un brevet typique commence par affirmer que ses auteurs ont inventé une méthode ou un système permettant de faire absolument tout ce qu’il est possible d’imaginer avec un outil ou un dispositif. Ensuite, il réduit cette revendication par étapes successives jusqu’à ce que nous arrivions à l’« invention » réelle qui est le véritable objet du brevet. L’espoir est que la personne qui passe en revue les demandes de brevets – qui est presque certainement surchargée de travail et sous-informée – ne verra pas que certaines (ou toutes) ces revendications sont ridicules, ou du moins suspectes, et qu’elle accordera des prétentions plus larges du brevet. Les brevets portant sur des choses non brevetables sont tout de même très utiles, car ils peuvent être utilisés contre des concurrents qui pourraient accorder une licence sur ce brevet ou se tenir à l’écart de ses revendications, plutôt que de subir le long et coûteux processus de contestation.
De plus, les brevets logiciels sont couramment accordés même si le déposant n’a aucune preuve qu’il peut faire ce que le brevet prétend. C’est-à-dire que vous pouvez breveter une « invention » que vous n’avez pas réellement faite et que vous ne savez pas comment faire.
Avec ces considérations en tête, il devient évident que le fait qu’un Géant de la tech ait breveté ce qu’il qualifie de rayon efficace de contrôle mental ne permet nullement de savoir si cette entreprise peut effectivement contrôler nos esprits.
Les géants de la tech collectent nos données pour de nombreuses raisons, y compris la diminution du rendement des stocks de données existants. Mais de nombreuses entreprises technologiques collectent également des données en raison d’une croyance exceptionnaliste erronée aux effets de réseau des données. Les effets de réseau se produisent lorsque chaque nouvel utilisateur d’un système augmente sa valeur. L’exemple classique est celui des télécopieurs [des fax NdT] : un seul télécopieur ne sert à rien, deux télécopieurs sont d’une utilité limitée, mais chaque nouveau télécopieur mis en service après le premier double le nombre de liaisons possibles de télécopie à télécopie.
Les données exploitées pour les systèmes prédictifs ne produisent pas nécessairement ces bénéfices. Pensez à Netflix : la valeur prédictive des données extraites d’un million d’utilisateurs anglophones de Netflix n’est guère améliorée par l’ajout des données de visualisation d’un utilisateur supplémentaire. La plupart des données que Netflix acquiert après ce premier échantillon minimum viable font double emploi avec des données existantes et ne produisent que des gains minimes. En attendant, le recyclage des modèles avec de nouvelles données devient plus cher à mesure que le nombre de points de données augmente, et les tâches manuelles comme l’étiquetage et la validation des données ne deviennent pas moins chères lorsqu’on augmente l’ordre de grandeur.
Les entreprises font tout le temps la course aux modes au détriment de leurs propres profits, surtout lorsque ces entreprises et leurs investisseurs ne sont pas motivés par la perspective de devenir rentables mais plutôt par celle d’être rachetés par un Géant de la tech ou d’être introduits en Bourse. Pour ces entreprises, cocher des cases à la mode comme « collecte autant de données que possible » pourrait permettre d’obtenir un meilleur retour sur investissement que « collecte une quantité de données adaptée à l’entreprise ».
C’est un autre dommage causé par l’exceptionnalisme technologique : la croyance selon laquelle davantage de données produit toujours plus de profits sous la forme de plus d’informations qui peuvent être traduites en de meilleurs rayons de contrôle mental. Cela pousse les entreprises à collecter et à conserver des données de manière excessive, au-delà de toute rationalité. Et comme les entreprises se comportent de manière irrationnelle, bon nombre d’entre elles vont faire faillite et devenir des navires fantômes dont les cales sont remplies de données qui peuvent nuire aux gens de multiples façons, mais dont personne n’est plus responsable. Même si les entreprises ne font pas faillite, les données qu’elles collectent sont maintenues en-deça de la sécurité minimale viable – juste assez de sécurité pour maintenir la viabilité de l’entreprise en attendant d’être rachetées par un Géant de la tech, un montant calculé pour ne pas dépenser un centime de trop pour la protection des données.
Comment les monopoles, et non le contrôle de la pensée, conduisent à la surveillance capitaliste : le cas de Snapchat
Pendant la première décennie de son existence, Facebook est entré en concurrence avec les réseaux sociaux de l’époque (Myspace, Orkut, etc) en se présentant comme l’alternative respectant de la vie privée. De fait, Facebook a justifié son jardin clos, qui permet aux utilisateurs d’y amener des données du Web, mais empêche les services tels que Google Search d’indexer et de mémoriser les pages Facebook, en tant que mesure de respect de la vie privée qui protège les utilisateurs des heureux gagnants de la bataille des réseaux sociaux comme Myspace.
En dépit des fréquentes promesses disant qu’il ne collecterait ou n’analyserait jamais les données de ses utilisateurs, Facebook a lancé à intervalles réguliers des initiatives exactement dans ce but, comme le sinistre Beacon tool, qui vous espionne lorsque vous surfez sur le Web puis ajoute vos activités sur le web à votre timeline publique, permettant à vos amis de surveiller vos habitudes de navigation. Beacon a suscité une révolte des utilisateurs. À chaque fois, Facebook a renoncé à ses actions de surveillance, mais jamais complètement ; inévitablement, le nouveau Facebook vous surveillera plus que l’ancien Facebook, mais moins que le Facebook intermédiaire qui suit le lancement d’un nouveau produit ou service.
Le rythme auquel Facebook a augmenté ses efforts de surveillance semble lié au climat compétitif autour de Facebook. Plus Facebook avait de concurrents, mieux il se comportait. À chaque fois qu’un concurrent majeur s’est effondré, le comportement de Facebook s’est notablement dégradé.
Dans le même temps, Facebook a racheté un nombre prodigieux d’entreprises, y compris une société du nom de Onavo. À l’origine, Onavo a créé une application mobile pour suivre l’évolution de la batterie. Mais les permissions que demandaient Onavo étaient telles que l’appli était capable de recueillir de façon très précise l’intégralité de ce que les utilisateurs font avec leurs téléphones, y compris quelles applis ils utilisent et comment.
Avec l’exemple d’Onavo, Facebook a découvert qu’il était en train de perdre des parts de marché au profit de Snapchat, une appli qui, comme Facebook une décennie plus tôt, se vend comme l’alternative qui respecte la vie privée par rapport au statu quo . À travers Onavo, Facebook a pu extraire des données des appareils des utilisateurs de Snapchat, que ce soient des utilisateurs actuels ou passés. Cela a poussé Facebook à racheter Instagram, dont certaines fonctionnalités sont concurrentes de Snapchat, et a permis à Facebook d’ajuster les fonctionnalités d’Instagram ainsi que son discours marketing dans le but d’éroder les gains de Snapchat et s’assurer que Facebook n’aurait pas à faire face aux pressions de la concurrence comme celles subies par le passé par Myspace et Orkut.
La manière dont Facebook a écrasé Snapchat révèle le lien entre le monopole et le capitalisme de surveillance. Facebook a combiné la surveillance avec une application laxiste des lois antitrust pour repérer de loin la menace de la concurrence par Snapchat et pour prendre des mesures décisives à son encontre. Le capitalisme de surveillance de Facebook lui a permis d’éviter la pression de la concurrence avec des tactiques anti-compétitives. Les utilisateurs de Facebook veulent toujours de la confidentialité, Facebook n’a pas utilisé la surveillance pour les convaincre du contraire, mais ils ne peuvent pas l’obtenir car la surveillance de Facebook lui permet de détruire tout espoir d’émergence d’un rival qui lui fait concurrence sur les fonctionnalités de confidentialité.
Un monopole sur vos amis
Un mouvement de décentralisation a essayé d’éroder la domination de Facebook et autres entreprises des géants de la tech en proposant des alternatives sur le Web indépendant (indieweb) : Mastodon en alternative à Twitter, Diaspora en alternative à Facebook, etc, mais ces efforts ont échoué à décoller.
Fondamentalement, chacun de ces services est paralysé par le même problème : tout utilisateur potentiel d’une alternative de Facebook ou Twitter doit convaincre tous ses amis de le suivre sur une alternative décentralisée pour pouvoir continuer à avoir les bénéfices d’un média social. Pour beaucoup d’entre nous, la seule raison pour laquelle nous avons un compte Facebook est parce que nos amis ont des comptes Facebook, et la raison pour laquelle ils ont des comptes Facebook est que nous avons des comptes Facebook.
Tout cela a contribué à faire de Facebook, et autres plateformes dominantes, des « zones de tir à vue » dans lesquelles aucun investisseur ne financera un nouveau venu.
Et pourtant, tous les géants d’aujourd’hui sont apparus malgré l’avantage bien ancré des entreprises qui existaient avant eux. Pour comprendre comment cela a été possible, il nous faut comprendre l’interopérabilité et l’interopérabilité antagoniste.
Le gros problème de nos espèces est la coordination.
L’« interopérabilité » est la capacité qu’ont deux technologies à fonctionner l’une avec l’autre : n’importe qui peut fabriquer un disque qui jouera sur tous les lecteurs de disques, n’importe qui peut fabriquer un filtre que vous pourrez installer sur la ventilation de votre cuisinière, n’importe qui peut fabriquer l’essence pour votre voiture, n’importe qui peut fabriquer un chargeur USB pour téléphone qui fonctionnera dans votre allume-cigare, n’importe qui peut fabriquer une ampoule qui marchera dans le culot de votre lampe, n’importe qui peut fabriquer un pain qui grillera dans votre grille-pain.
L’interopérabilité est souvent une source d’innovation au bénéfice du consommateur : Apple a fabriqué le premier ordinateur personnel viable commercialement, mais des millions de vendeurs de logiciels indépendants ont fait des programmes interopérables qui fonctionnaient sur l’Apple II Plus. La simple antenne pour les entrées analogiques à l’arrière des téléviseurs a d’abord permis aux opérateurs de câbles de se connecter directement aux télévisions, puis ont permis aux entreprises de consoles de jeux et ensuite aux ordinateurs personnels d’utiliser une télévision standard comme écran. Les prises téléphoniques RJ11 standardisées ont permis la production de téléphones par divers vendeurs avec divers formes, depuis le téléphone en forme de ballon de foot reçu en cadeau d’abonnement de Sports Illustrated, aux téléphones d’affaires avec haut-parleurs, mise en attente, et autres, jusqu’aux répondeurs et enfin les modems, ouvrant la voie à la révolution d’Internet.
On utilise souvent indifféremment « interopérabilité » et « standardisation », qui est le processus pendant lequel les fabricants et autres concernés négocient une liste de règles pour l’implémentation d’une technologie, comme les prises électriques de vos murs, le bus de données CAN utilisé par le système de votre voiture, ou les instructions HTML que votre navigateur internet interprète.
Mais l’interopérabilité ne nécessite pas la standardisation, en effet la standardisation émerge souvent du chaos de mesures d’interopérabilité ad hoc. L’inventeur du chargeur USB dans l’allume-cigare n’a pas eu besoin d’avoir la permission des fabricants de voitures ou même des fabricants des pièces du tableau de bord. Les fabricants automobiles n’ont pas mis en place des contre-mesures pour empêcher l’utilisation de ces accessoires d’après-vente par leurs consommateurs, mais ils n’ont pas non plus fait en sorte de faciliter la vie des fabricants de chargeurs. Il s’agit d’une forme d’« interopérabilité neutre ».
Au-delà de l’interopérabilité neutre, il existe l’« interopérabilité antagoniste ». C’est quand un fabricant crée un produit qui interagit avec le produit d’un autre fabricant en dépit des objections du deuxième fabricant, et cela même si ça nécessite de contourner un système de sécurité conçu pour empêcher l’interopérabilité.
Le type d’interopérabilité antagoniste le plus usuel est sans doute les cartouches d’encre d’imprimantes par des fournisseurs tiers. Les fabricants d’imprimantes affirment qu’ils vendent les imprimantes en-dessous de leur coût et que leur seul moyen de récupérer les pertes est de se constituer une marge élevée sur les encres. Pour empêcher les propriétaires d’imprimantes d’acheter leurs cartouches ailleurs, les entreprises d’imprimantes appliquent une série de systèmes de sécurité anti-consommateurs qui détectent et rejettent les cartouches re-remplies ou par des tiers.
Les propriétaires d’imprimantes quant à eux défendent le point de vue que HP et Epson et Brother ne sont pas des œuvres caritatives et que les consommateurs de leurs produits n’ont aucune obligation à les aider à survivre, et donc que si ces entreprises choisissent de vendre leurs produits à perte, il s’agit de leur choix stupide et à eux d’assumer les conséquences. De même, les compétiteurs qui fabriquent des cartouches ou les re-remplissent font remarquer qu’ils ne doivent rien aux entreprises d’imprimantes, et que le fait qu’ils érodent les marges de ces entreprises est le problème de celles-ci et non celui de leurs compétiteurs. Après tout, les entreprises d’imprimantes n’ont aucun scrupule à pousser un re-remplisseur à fermer boutique, donc pourquoi est-ce que les re-remplisseurs devraient se soucier de la bonne santé économique des entreprises d’imprimantes ?
L’interopérabilité antagoniste a joué un rôle hors normes dans l’histoire de l’industrie tech : depuis la création du « alt.* » dans l’architecture de Usenet (qui a commencé à l’encontre des souhaits des responsables de Usenet et qui s’est développé au point d’être plus important que tout le Usenet combiné) à la guerre des navigateurs (lorsque Netscape et Microsoft ont dépensé d’énormes ressources en ingénierie pour faire en sorte que leur navigateur soit incompatible avec les fonctionnalités spéciales et autres peccadilles de l’autre) à Facebook (dont le succès a entre autres été dû au fait qu’il a aidé ses nouveaux utilisateurs en leur permettant de rester en contact avec les amis qu’ils ont laissés sur Myspace parce que Facebook leur a fourni un outil pour s’emparer des messages en attente sur Myspace et les importer sur Facebook, créant en pratique un lecteur Myspace basé sur Facebook).
Aujourd’hui, la validation par le nombre est considérée comme un avantage inattaquable. Facebook est là où tous vos amis sont, donc personne ne peut fonder un concurrent à Facebook. Mais la compatibilité antagoniste retourne l’avantage concurrentiel : si vous êtes autorisés à concurrencer Facebook en proposant un outil qui importe les messages en attente sur Facebook de tous vos utilisateurs dans un environnement qui est compétitif sur des terrains que Facebook ne pourra jamais atteindre, comme l’élimination de la surveillance et des pubs, alors Facebook serait en désavantage majeur. Vous aurez rassemblé tous les potentiels ex-utilisateurs de Facebook sur un unique service facile à trouver. Vous les auriez éduqués sur la façon dont un service Facebook-like fonctionne et quels sont ses potentiels avantages, et vous aurez fourni un moyen simple aux utilisateurs mécontents de Facebook pour dire à leurs amis où ils peuvent trouver un meilleur traitement.
L’interopérabilité antagoniste a été la norme pendant un temps et une contribution clef à une scène tech dynamique et vibrante, mais à présent elle est coincée derrière une épaisse forêt de lois et règlements qui ajoutent un risque légal aux tactiques éprouvées de l’interopérabilité antagoniste. Ces nouvelles règles et les nouvelles interprétations des règles existantes signifient qu’un potentiel « interopérateur » antagoniste aura besoin d’échapper aux réclamations de droits d’auteurs, conditions de service, secret commercial, ingérence et brevets.
En l’absence d’un marché concurrentiel, les faiseurs de lois ont délégué des tâches lourdes et gouvernementales aux sociétés de Big Tech, telles que le filtrage automatique des contributions des utilisateurs pour la violation des droits d’auteur ou pour des contenus terroristes et extrémistes ou pour détecter et empêcher le harcèlement en temps réel ou encore pour contrôler l’accès au contenu sexuel.
Ces mesures ont fixé une taille minimale à partir de laquelle on peut faire du Big Tech, car seules les très grandes entreprises peuvent se permettre les filtres humains et automatiques nécessaires pour se charger de ces tâches.
Mais ce n’est pas la seule raison pour laquelle rendre les plateformes responsables du maintien de l’ordre parmi leurs utilisateurs mine la compétition. Une plateforme qui est chargée de contrôler le comportement de ses utilisateurs doit empêcher de nombreuses techniques vitales à l’interopérabilité antagoniste de peur qu’elles ne contreviennent à ses mesures de contrôle. Par exemple si quelqu’un utilisant un remplaçant de Twitter tel que Mastodon est capable de poster des messages sur Twitter et de lire des messages hors de Twitter, il pourrait éviter les systèmes automatiques qui détectent et empêchent le harcèlement (tels que les systèmes qui utilisent le timing des messages ou des règles basées sur les IP pour estimer si quelqu’un est un harceleur).
Au point que nous sommes prêts à laisser les géants de la tech s’autocontrôler, plutôt que de faire en sorte que leur industrie soit suffisamment limitée pour que les utilisateurs puissent quitter les mauvaises plateformes pour des meilleures et suffisamment petites pour qu’une réglementation qui ferait fermer une plateforme ne détruirait pas l’accès aux communautés et données de milliards d’utilisateurs, nous avons fait en sorte que les géants de la tech soient en mesure de bloquer leurs concurrents et qu’il leur soit plus facile de demander un encadrement légal des outils pour bannir et punir les tentatives à l’interopérabilité antagoniste.
En définitive, nous pouvons essayer de réparer les géants de la tech en les rendant responsables pour les actes malfaisants de ses utilisateurs, ou bien nous pouvons essayer de réparer Internet en réduisant la taille de géants. Mais nous ne pouvons pas faire les deux. Pour pouvoir remplacer les produits des géants d’aujourd’hui, nous avons besoin d’éclaircir la forêt légale qui empêche l’interopérabilité antagoniste de façon à ce que les produits de demain, agiles, personnels, de petite échelle, puissent se fédérer sur les géants tels que Facebook, permettant aux utilisateurs qui sont partis à continuer à communiquer avec les utilisateurs qui ne sont pas encore partis, envoyant des vignes au-dessus du mur du jardin de Facebook afin que les utilisateurs piégés de Facebook puissent s’en servir afin de grimper aux murs et de s’enfuir, accédant au Web ouvert et global.