À quoi ça sert de s’activer sur Internet ? Doctorow répond à Morozov

Anonymous9000 - CC byCory Doctorow est souvent traduit sur ce blog car c’est l’une des rares personnalités qui pense l’Internet et agit en conséquence pour qu’il conserve ses promesses initiales d’ouverture et de partage.

Il a rédigé un long mais passionnant article dans The Guardian qui prend appui sur un lecture (très) critique du récent mais déjà fort commenté livre The Net Delusion: The Dark Side of Internet Freedom de Evgeny Morozov.

Chercheur biélorusse à l’université de Georgetown et chroniqueur dans plusieurs journaux, Morozov remet radicalement en question, dans son ouvrage, le pouvoir libérateur d’Internet.

On peut le voir exposer son point de vue dans cette courte conférence au format TED : Comment Internet aide les dictatures, qui constitue un excellent préambule à ce qui va suivre.

Morozov y dénonce la « cyberutopie » qui draperait la technologie de vertus émancipatrices intrinsèques, comme celle d’être nécessairement vecteur de démocratie pourvu que l’information circule sans entrave (source Rue89). Une « cyberutopie » issue de l’ignorance ou de la paresse intellectuelle de nos contemporains, qui se laissent aller au « web-centrisme » en imaginant que toutes les questions qui se posent dans nos sociétés peuvent être résolues par le prisme d’Internet (source Webdorado). Cliquer sur « J’aime » ou rejoindre une cause sur Facebook, relayer frénétiquement une information non vérifiée sur Twitter, n’ont jamais révolutionné la société,

On comprendra dès lors aisément que le « net-activiste » Cory Doctorow ait pris sa plume pour répondre dans le détail à l’argumentaire de Morozov.

Internet n’est certainement pas synonyme de libération. Mais ce réseau possède des caractéristiques particulières qui font qu’il ne ressemble à rien de ce que l’on a connu auparavant. Raison de plus pour se battre afin de conserver son principe de neutralité et faire en sorte qu’il échappe au contrôle des États et aux logiques mercantiles des entreprises privées.

Wikileaks et ses anonymous[1], hier la Tunisie, l’Égypte aujourd’hui… L’actualité récente n’est pas évoquée, mais il semblerait qu’elle penche plutôt du côté de Doctorow que de celui de Morozov.

Nous avons besoin d’une critique sérieuse de l’activisme sur le Net

We need a serious critique of net activism

Cory Doctorow – 25 janvier 2011 – The Guardian
(Traduction Framalang : Penguin, Barbidule, Gilles, Siltaar, e_Jim, Goofy et Don Rico)

« Net Delusion » (NdT : que l’on pourrait traduire par « Les mirages du Net » ou « Internet, la désillusion ») avance la thèse que la technologie ne profite pas nécessairement à la liberté, mais par quel autre moyen les opprimés se feront-ils entendre ?

Net Delusion est le premier livre de l’écrivain et blogueur d’origine biélorusse Evgeny Morozov, dont le thème de prédilection est la politique étrangère. Morozov s’est bâti une réputation de critique pointu, et parfois mordant, d’Internet et du « cyber-utopisme », et ” Net Delusion ” développe les arguments qu’il a déjà présentés ailleurs. J’ai lu avec intérêt l’exemplaire que j’ai reçu en service de presse. J’apprécie Evgeny, lors de nos rencontres et de nos échanges de courriers, il m’a donné l’impression d’être intelligent et engagé.

Au cœur du livre, on trouve des remarques extrêmement judicieuses. Morozov a tout à fait raison lorsqu’il souligne que la technologie n’est pas intrinsèquement bonne pour la liberté, qu’on peut l’utiliser pour entraver, surveiller et punir, aussi facilement que pour contourner, libérer et partager.

Hélas, ce message est noyé au milieu d’une série d’attaques confuses et faiblement argumentées contre un mouvement « cyber-utopique » nébuleux, dont les points de vue sont évoqués en termes très généraux, souvent sous la forme de citations de CNN et d’autres agences de presse censées résumer un hypothétique consensus cyber-utopique. Dans son zèle à discréditer cette thèse, Morozov utilise tous les arguments qu’il peut trouver, quelle que soit leur faiblesse ou leur inanité, contre quiconque fait mine de soutenir que la technologie est libératrice.

Le rôle de Twitter

Morozov tente d’abord de remettre les pendules à l’heure sur le rôle qu’a joué Twitter lors des dernières élections iraniennes. On a présenté partout le réseau de microblogage comme un outil fondamental pour les initiatives de l’opposition sur le terrain, mais par la suite, il est apparu clairement que les Iraniens d’Iran n’avaient été présents que marginalement sur Twitter, bien qu’ils aient utilisé beaucoup d’autres outils de diffusion et que ceux-ci aient été en effet essentiels dans la réaction à l’élection iranienne.

Morozov décrit minutieusement le fait que beaucoup des trois millions d’Iraniens expatriés sont en effet actifs sur Twitter, et que c’est ce trafic, ainsi que les messages de sympathie d’utilisateurs non-iraniens, qui ont fait de l’élection iranienne et de ses conséquences un évènement majeur sur Twitter.

Il décrit également les liens étroits que ces expatriés ont avec leur famille en Iran, grâce à d’autres outils tels que Facebook. Mais il manque d’en conclure que les informations issues de Twitter ont trouvé écho sur Facebook (et vice-versa) via les Iraniens de l’étranger. Il préfère considérer que les millions d’expatriés Iraniens publiant des messages sur Twitter sont tellement isolés de leur proches relations sur Facebook que ces messages n’ont eu presque aucun impact.

Presque aucun, mais un impact quand même. Morozov poursuit en citant Golnaz Esfandiari, une correspondante de Radio Free Europe en Iran, « déplorant la complicité pernicieuse de Twitter qui a permis aux rumeurs de se propager » en Iran pendant la crise. J’ai été choqué de lire cela dans l’ouvrage de Morozov : comment Twitter pourrait-il être « complice » de la propagation de rumeurs ; Esfandiari or Morozov attendaient-ils des fournisseurs de services sur Internet qu’ils censurent de façon pro-active les contributions des utilisateurs avant de les laisser se diffuser librement sur ur leurs réseaux ? Et si c’était le cas, Morozov pensait-il vraiment que Twitter deviendrait un meilleur soutien de la liberté sur Internet en s’auto-proclamant censeur ?

Cela m’a tellement stupéfait que j’ai envoyé un e-mail à Morozov pour lui demander ce que le lecteur était censé y comprendre au juste. Morozov m’a répondu que d’après lui Esfandiari ne s’était pas exprimée clairement ; elle voulait dire que c’étaient les utilisateurs de Twitter qui étaient « complices » de la propagation des rumeurs. C’est sans doute mieux, mais sans preuves que Twitter n’est fait que pour propager de fausses rumeurs, cela ne suffit pas pour inculper Twitter. Pourquoi alors ce passage figure-t-il dans le livre – sachant que Morozov n’a cessé d’affirmer dans les pages précédentes qu’aucune information postée sur Twitter n’avait atteint l’Iran – si ce n’est comme un pan de la stratégie qui consiste à discréditer les « cyber-utopistes » en balançant tous les arguments possibles en espérant que certains tiennent debout ? Et je pense que c’est le cas : par la suite, Morozov reproche à la « culture Internet » la « persistance de nombreuses légendes urbaines », une idée fort singulière puisque des chercheurs spécialisés en légendes urbaines, tels que Jan Brunvand, ont montré que de nombreuses légendes urbaines contemporaines proviennent du Moyen-Âge et ont prospéré sans avoir besoin d’Internet comme moyen de reproduction.

Technologie et révolution

Morozov est sceptique quant à la capacité de la technologie à déclencher des révolutions et étendre la démocratie. Pour renverser un régime corrompu, dit-il, avoir librement accès à l’information n’est ni nécessaire, ni même important – c’est une antienne des Reaganistes avec leur vision romantique de Samizdat, Radio Free Europe et autres efforts d’information remontant à la guerre froide. L’Union soviétique ne s’est pas effondrée à cause d’un mouvement politique, de courageux dissidents ou de tracts photocopiés – elle s’est écroulée parce qu’elle était devenue un cauchemar mal géré qui a chancelé de crise en crise jusqu’à l’implosion finale.

En effet, le libre accès aux médias étrangers (comme en bénéficiaient les citoyens de RDA qui pouvaient capter les programmes d’Allemagne de l’Ouest) a souvent contribué à désamorcer le sentiment anti-autoritaire, anesthésiant les Allemands de l’Est avec tant d’efficacité que même la Stasi avait fini par chanter les louanges de la décadente télévision occidentale.

L’ironie, c’est que Morozov – involontairement, mais avec vigueur – rejoint sur ce point ses adversaires idéologiques, comme Clay Shirky, le professeur de l’université de New York que Morozov critique lourdement par ailleurs. Les travaux de Shirky – notamment le dernier en date, The Cognitive Surplus – parviennent exactement aux mêmes conclusions au sujet des médias occidentaux traditionnels, et en particulier de la télévision. Shirky soutient que la télé a principalement servi à atténuer le poids de l’ennui né de l’accroissement du temps de loisirs aux premiers jours de l’ère de l’information. Pour Shirky, Internet est palpitant parce qu’il constitue justement l’antidote à cette attitude de spectateur passif, et qu’il constitue un mécanisme incitant les gens à la participation au travers d’une succession d’engagements toujours plus importants.

Régulation et contrôle

Morozov ne discute cependant pas cette position en profondeur. En fait, quand il examine enfin Internet en tant que tel, indépendamment des réseaux téléphoniques, des programmes télé et des autres médias, il se contente de tourner en ridicule les « gourous de la technologie », qui « révèlent leur méconnaissance de l’histoire » lorsqu’ils se lancent dans des « tirades quasi-religieuses à propos de la puissance d’internet ». Il illustre cette caricature par un florilège de citations stupides, soigneusement choisies parmi deux décennies de discours sur Internet, mais il laisse soigneusement de côté tout le travail sérieux sur l’histoire du Net en tant que média pleinement original – et notamment, il oublie de mentionner ou de réfuter la critique posée par Timothy Wu dans l’excellent livre The Master Switch, paru l’an dernier.

Wu, professeur de droit des télécommunications, retrace avec mordant l’histoire de la régulation des médias en réponse à la possible décentralisation des monopoles et oligopoles dans les télécommunications. Replacé dans ce contexte, Internet apparaît véritablement comme un phénomène original. Morozov sait bien sûr qu’Internet est différent, il le reconnaît lui-même lorsqu’il parle de la manière dont le Net peut imiter et supplanter d’autres médias, et des problèmes que cela engendre.

C’est là que réside la plus sérieuse faiblesse de Net Delusion : dans ce refus de se confronter aux meilleurs textes sur le thème d’Internet et de sa capacité extraordinaire à connecter et émanciper. Quand Morozov parle des menaces pour la sécurité des dissidents lorsqu’ils utilisent Facebook – ce qui revient à faire de jolies listes de dissidents prêtes à être utilisées par les polices secrètes des États oppresseurs – il le fait sans jamais mentionner le fait que, de longue date, des avertissements pressants sur ce sujet ont été lancés par l’avant-garde des « cyber-utopistes », incarnée par des groupes comme l’Electronic Frontier Foundation, NetzPolitik, Knowledge Ecology International, Bits of Freedom, Public Knowledge, et des dizaines d’autres groupes de pression, d’organisations d’activistes et de projets techniques dans le monde entier.

Bien évidemment, presqu’aucune mention n’est faite des principaux défenseurs de la liberté du Net, tel que le vénérable mouvement des cypherpunks, qui ont passé des décennies à concevoir, diffuser et soutenir l’utilisation d’outils cryptographiques spécialement conçus pour échapper au genre de surveillance et d’analyse du réseau qu’il identifie (à juste titre) comme étant implicite dans l’utilisation de Facebook, Google, et autres outils privés et centralisés, pour organiser des mouvements politiques. Bien que Morozov identifie correctement les risques que les dissidents prennent pour leur sécurité en utilisant Internet, son analyse technique présente des failles sérieuses. Lorsqu’il avance, par exemple, qu’aucune technologie n’est neutre, Morozov néglige une des caractéristiques essentielles des systèmes cryptographiques : il est infiniment plus facile de brouiller un message que de casser le brouillage et de retrouver le message original sans avoir la clé.

Battre la police secrète à son propre jeu

En pratique, cela signifie que des individus disposant de peu de ressources et des groupes dotés de vieux ordinateurs bon marché sont capables de tellement bien chiffrer leurs messages que toutes les polices secrètes du monde, même si elles utilisaient tous les ordinateurs jamais fabriqués au sein d’un gigantesque projet s’étalant sur plusieurs décennies, ne pourraient jamais déchiffrer le message intercepté. De ce point de vue au moins, le jeu est faussé en faveur des dissidents – qui jouissent pour la première fois du pouvoir de cacher leur communication hors d’atteinte de la police secrète – au détriment de l’État, qui a toujours joui du pouvoir de garder ses secrets ignorés du peuple.

La façon dont Morozov traite de la sécurité souffre d’autres défauts. C’est une évidence pour tous les cryptologues que n’importe qui peut concevoir un système si sécurisé que lui-même ne peut pas trouver de moyen de le casser (ceci est parfois appelé la « Loi de Schneier », d’après le cryptologue Bruce Schneier). C’est la raison pour laquelle les systèmes de sécurité qui touchent à des informations critiques nécessitent toujours une publication très large et un examen des systèmes de sécurité par les pairs. Cette approche est largement acceptée comme la plus sûre, et la plus efficace, pour identifier et corriger les défauts des technologies de sécurité.

Pourtant, lorsque Morozov nous relate l’histoire de Haystack, un outil de communication à la mode censé être sécurisé, soutenu par le ministère américain des Affaires étrangères, et qui s’est révélé par la suite totalement non-sécurisé, il prend pour argent comptant les déclarations du créateur de Haystack affirmant que son outil devait rester secret car il ne voulait pas que les autorités iraniennes fassent de la rétro-ingénierie sur son fonctionnement (les vrais outils de sécurité fonctionnent même lorsqu’ils ont fait l’objet d’une rétro-ingénierie).


Au lieu de cela, Morozov concentre ses critiques sur l’approche « publier tôt, publier souvent » (NdT : Release early, release often) des logiciels libres et open source, et se moque de l’aphorisme « avec suffisamment de paires d’yeux, les bugs disparaissent » (NdT appelé aussi Loi de Linus). Pourtant, si cela avait été appliqué à Haystack, cela aurait permis de révéler ses défauts bien avant qu’il n’arrive entre les mains des activistes iraniens. En l’occurrence, Morozov se trompe complètement : si l’on veut développer des outils sécurisés pour permettre à des dissidents de communiquer sous le nez de régimes oppressifs, il faut largement rendre public le fonctionnement de ces outils, et les mettre à jour régulièrement au fur et à mesure que des pairs découvrent de nouvelles vulnérabilités.

Morozov aurait bien fait de se familiariser avec la littérature et les arguments des technologues qui s’intéressent à ces questions et y ont réfléchi (les rares fois où il leur accorde son attention c’est pour se moquer des fondateurs de l’EFF : Mitch Kapor pour avoir comparé Internet à un discours de Jefferson, et John Perry Barlow pour avoir écrit une Déclaration d’indépendance du cyberespace). Certains des experts les plus intelligemment paranoïaques au monde ont passé plus de vingt ans à imaginer les pires scénarios catastrophes technologiquement plausibles, tous plus effrayants que les spéculations de Morozv – comme son hypothèse farfelue selon laquelle la police secrète pourrait un jour prochain avoir la technologie pour isoler des voix individuelles dans un enregistrement de milliers de manifestants scandant des slogans, pour les confronter à une base de données d’identités.

Surveiller les surveillants

Le tableau que dépeint Morozov de la sécurité des informations est trompeusement statique. Notant que le web a permis un degré de surveillance alarmant par des acteurs commerciaux tels les réseaux de publicité, Morozov en tire la conclusion que cette sorte de traçage sera adoptée par les gouvernements adeptes de censure et d’espionnage. Mais les internautes sensibles à la menace des publicitaires peuvent sans difficulté limiter cet espionnage à l’aide de bloqueurs de pub ou de solutions équivalentes. Il est déplorable qu’assez peu de personnes tirent avantage de ces contre-mesures, mais de là à supposer que les dissidents sous des régimes répressifs auront la même confiance naïve dans leur gouvernement que le client moyen envers les cookies de traçage de Google, il y a un pas énorme à franchir. Dans l’analyse de Morozov, votre vulnérabilité sur le web reste la même, que vous ayez un a priori bienveillant ou hostile à l’égard du site que vous visitez ou du mouchard qui vous préoccupe.

Morozov est également prêt à faire preuve d’une improbable crédulité lorsque cela apporte de l’eau à son moulin – par exemple, il s’inquiète du fait que le gouvernement chinois ait imposé d’installer un programme de censure obligatoire, appelé « barrage vert », sur tous les PC, même si cette manœuvre a été tournée en ridicule par les experts en sécurité du monde entier, qui ont prédit, à raison, que cela serait un échec lamentable (si un programme de censure n’est pas capable d’empêcher votre enfant de 12 ans de regarder du porno, il n’empêchera pas des internautes chinois éduqués de trouver des informations sur Falun Gong). Dans le même temps, Morozov oublie complètement d’évoquer les projets de l’industrie du divertissement consistant à exploiter l’« informatique de confiance » dans le but de contrôler l’utilisation de votre PC et de votre connexion à Internet, ce qui constitue une menace plus crédible et plus insidieuse pour la liberté du Net.

Morozov n’est pas le seul à avoir cette vision erronée de la sécurité sur Internet. Comme il le fait remarquer, l’appareil diplomatique occidental regorge d’imbéciles heureux prenant leurs désirs pour la réalité en matière de technologie. L’experte de la Chine Rebecca MacKinnon, que l’auteur cite tout au long de Net Delusion, raille l’obstination aveugle des ingénieurs et des diplomates à percer les pare-feux de la censure (comme la « grande e-muraille de Chine »), alors même qu’ils négligent d’autres risques beaucoup plus importants et pernicieux que le politburo de Pékin fait peser sur la liberté. Si Net Delusion a pour but d’amener le corps diplomatique à écouter d’autres groupes d’experts, ou d’inciter la presse généraliste à mieux rendre compte des possibilités de la technologie, je suppose que c’est admirable. Mais je crois que Morozov espère toucher des personnes au-delà de la Maison Blanche, Bruxelles, ou Washington ; j’ai l’impression qu’il espère que le monde entier va cesser d’attendre de la technologie qu’elle soit une force libératrice, pour plutôt faire confiance à… à quoi donc ?

Je n’en suis pas sûr. Morozov voudrait semble-t-il voir le chaos des mouvements populaires remplacé par une espèce d’activisme bien ordonné et impulsé depuis le sommet, mené par des intellectuels dont les réflexions ne peuvent pas s’exprimer de manière concise dans des tweets de 140 caractères. Morozov se voit-il lui-même comme l’un de ces intellectuels ? Voilà un point qui n’est jamais exprimé clairement.

Il est important de se poser la question de la place des discours sérieux à l’ère d’Internet, et Morozov essaie ici d’étayer ses arguments techniques avec des arguments idéologiques. De son point de vue, Internet n’est que le dernier avatar d’une série de technologies de communication qui ne propagent que futilités, rumeurs et inepties, évinçant ainsi les pensées et les réflexions sérieuses. Il n’est pas le premier à remarquer que des médias qui livrent des informations à un rythme effréné conduisent à réfléchir de manière rapide et papillonnante ; Morozov cite le livre de Neil Postman publié en 1985, « Amusing Ourselves to Death » (NdT : « Se distraire à en mourir »), mais il aurait tout aussi bien pu citer Walden ou la vie dans les bois, de Henry David Thoreau : « Nous sommes prêts à creuser un tunnel sous l’Atlantique pour rapprocher de quelques semaines l’Ancien monde du Nouveau ; mais la première nouvelle qui passera jusqu’aux oreilles américaines sera sans doute que la princesse Adélaïde a la coqueluche. »

« Internet nous rendra stupide »

En d’autres termes, les intellectuels se sont de tout temps lamentés sur la futilisation inhérente aux médias de masse – je ne vois pas de grande différence entre les arguments de l’Église contre Martin Luther (permettre aux laïcs de lire la Bible va futiliser la théologie) et ceux de Thoreau, Postman et Morozov qui prétendent qu’Internet nous rend stupides car il nous expose à trop de « LOLCats ».

Mais comme le fait remarquer Clay Shirky, il existe une différence fondamentale entre entendre parler de la santé de la princesse Adélaïde grâce au télégraphe ou suivre les rebondissements de Dallas à la télévision, et faire des « LOLCats » sur le Net : créer un « LOLCat » et le diffuser dans le monde entier est à la portée de tous. Autrement dit, Internet offre la possibilité de participer, d’une manière que les autres médias n’avaient même jamais effleurés : quiconque a écrit un manifeste ou une enquête peut les mettre largement à disposition. Dans un monde où chacun est en mesure de publier, il devient plus difficile, c’est vrai, de savoir à quoi il faut prêter attention, mais affirmer que la liberté serait mieux servie en imposant le silence à 90% de la population afin que les intellectuels aient le champ libre pour éduquer les masses est complètement stupide.

Pourtant, Morozov présente comme un inconvénient la facilité à publier en ligne. D’abord parce que d’après lui les futilités finissent par submerger les sujets sérieux, ensuite parce que des cinglés nationalistes anti-démocratie peuvent utiliser le Net pour attiser la haine et l’intolérance, et enfin parce que les difficultés que l’on rencontrait autrefois pour s’organiser politiquement constituaient un moyen en soi de forger son engagement, les risques et les privations associés à la dissidence renforçant la résolution des opposants.

Il est vrai qu’Internet a mis à portée de clic plus de futilités que jamais auparavant, mais c’est seulement parce qu’il a mis à portée de clic davantage de tout. Il n’a jamais été aussi simple qu’aujourd’hui de publier, lire et participer à des discussions sérieuses et argumentées. Et même s’il existe une centaine (ou un millier) de Twitteurs futiles pour chaque blog sérieux et pertinent, du genre de Crooked Timber, il existe davantage de points d’entrée pour des discussions sérieuses – que ce soit sur des blogs, des forums, des services de vidéo, ou même sur Twitter – qu’il n’y en a jamais eu auparavant dans toute l’histoire de l’humanité.

Il est tentant d’observer toute cette diversité et d’y voir une caisse de résonance dans laquelle les personnes ayant les mêmes points de vue étriqués se rassemblent et sont toutes d’accord entre elles, mais un coup d’œil rapide sur les débats enflammés qui sont la marque de fabrique du style rhétorique d’Internet suffit pour nous en dissuader. En outre, si nous étions tous enfermés dans une caisse de résonance se limitant à une mince tranche de la vie publique, comment se fait-il que toutes ces futilités – vidéos marrantes de Youtube, coupures de presse people fascinantes et liens vers l’étrange et le saugrenu – continuent à parvenir jusqu’à nos écrans ? (Morozov essaie ici d’avoir le beurre et l’argent du beurre, en nous prévenant que nous sommes à la fois en danger de nous noyer dans des futilités, et que l’effet de caisse de résonance va tuer la sérendipité).

Je suis moins inquiet que Morozov sur le fait que le Net fournisse un refuge aux fous littéraires à tendance paranoïaque, aux racistes hyper-nationalistes et aux hordes de tarés violents. Les gens qui croient en la liberté d’expression ne doivent pas s’affliger du fait que d’autres utilisent cette liberté pour tenir des propos mauvais, méchants ou stupides ; comme le dit le mantra de la libre expression : « La réponse à de mauvaises paroles est davantage de paroles ».

Pour la liberté

Sur ce point également Internet n’est pas neutre, et penche plutôt en faveur des défenseurs de la liberté. Les gouvernements puissants ont toujours eu la possibilité de contrôler la parole publique par le biais de la censure, des médias officiels, de la tromperie, des agents provocateurs et de bien d’autres moyens visibles ou invisibles. Mais ce qui est original, c’est que les oligarques russes utilisant Internet pour faire de la propagande sont désormais obligés de le faire en utilisant un média que leurs opposants idéologiques peuvent également exploiter. A l’époque soviétique, les dissidents se limitaient d’eux-mêmes à des chuchottements et des samizdat copiés à la main ; de nos jours, leurs héritiers peuvent lutter à armes égales avec les propagandistes de l’Etat sur le même Internet, un lien plus loin. Bien sûr, c’est risqué, mais le risque n’est pas nouveau (et la création et l’amélioration d’outils permettant l’anonymat, ouverts et validés par des pairs, ouvre de nouvelles perspectives en terme de limitation des risques) ; ce qui est nouveau c’est le remplacement de canaux de propagande unidirectionnels, comme la télévision (qu’elle diffuse des contenus de l’Est ou de l’Ouest) par un nouveau média qui permet de placer n’importe quel message à côté de n’importe quel autre grâce à des concepts puissants comme les hyperliens.

Je partage avec Morozov l’ironie de la situation lorsque les radicaux islamistes utilisent Internet pour honnir la liberté, mais alors que Morozov trouve ironique que les outils de la liberté puissent être utilisés pour embrasser la censure, je trouve ironique que pour se faire entendre, des apprentis-censeurs s’appuient sur le caractère universellement accessible d’un des médias les plus difficiles à censurer jamais conçus.

Sur le fait que la privation est fondamentale pour renforcer l’engagement des activistes, je suis confiant dans le fait que pour chaque tâche automatisée par Internet, de nouvelles tâches, difficiles à simplifier, vont apparaître et prendre leur place. En tant qu’activiste politique durant toute ma vie, je me souviens des milliers d’heures de travail que nous avions l’habitude de consacrer à l’affichage sauvage, au remplissage d’enveloppes ou aux chaînes téléphoniques simplement dans le but de mobiliser les gens pour une manifestation, une pétition ou une réunion publique (Morozov minimise la difficulté de tout cela, lorsqu’il suppose, par exemple, que les Iraniens apprendraient par le bouche à oreille qu’une manifestation va avoir lieu, quels que soient les outils disponibles, ce qui m’amène à croire qu’il n’a jamais essayé d’organiser une manifestation à l’époque où Internet n’existait pas). Je suis convaincu que si nous avions eu la possibilité d’informer des milliers de gens d’un simple clic de souris, nous ne serions pas ensuite rentrés tranquillement chez nous ; ce travail besogneux engloutissait la majeure partie de notre temps et de notre capacité à imaginer de nouvelles façons de changer les choses.

En outre, Morozov ne peut pas gagner sur les deux tableaux : d’un côté, il tire le signal d’alarme à propos des groupes extrémistes et nationalistes qui sont constitués et motivés par le biais d’Internet en vue de réaliser leurs opérations terrifiantes ; et quelques pages plus loin, il nous dit qu’Internet facilite tellement les choses que plus personne ne sera suffisamment motivé pour sortir de chez lui pour faire quoi que ce soit de concret.

Morozov observe les centaines de milliers voire les millions de personnes qui sont motivées pour faire quelques minuscules pas pour le soutien d’une cause, comme par exemple changer son avatar sur Twitter ou signer une pétition en ligne, et il en conclut que la facilité de participer de façon minime a dilué leur énergie d’activiste. J’observe le même phénomène, je le compare au monde de l’activisme tel que je l’ai connu avant Internet, dans lequel les gens que l’on pouvait convaincre de participer à des causes politiques se chiffraient plutôt en centaines ou en milliers, et je constate que tous les vétérans de l’activisme que je connais ont commencé en effectuant un geste simple, de peu d’envergure, puis ont progressivement évolué vers un engagement toujours plus fort et plus profond ; j’en arrive donc à la conclusion que le Net aide des millions de personnes à se rendre compte qu’ils peuvent faire quelque chose pour les causes qui leur tiennent à cœur, et qu’une partie de ces personnes va continuer et en faire toujours plus, petit à petit.

Le pouvoir libérateur de la technologie

La plus étrange des thèses soutenues dans Net Delusion est que la confiance que place l’Occident dans le pouvoir libérateur de la technologie a mis la puce à l’oreille des dictateurs – qui n’étaient auparavant pas intéressés par le contrôle du Net – et a rendu Internet plus difficilement utilisable dans un but de propagation de la liberté. Morozov cite en exemple la réponse des autorités Iraniennes aux affirmations outrancières qu’a tenu le Département d’État américain sur le rôle qu’aurait joué Twitter dans les manifestations post-électorales. Selon Morozov, les hommes politiques au pouvoir en Iran étaient en grande partie indifférents au Net, jusqu’à ce que les Américains leur annoncent que celui-ci allait causer leur perte, suite à quoi ils prirent sur eux de transformer Internet en un outil d’espionnage et de propagande à l’encontre de leurs citoyens.

Morozov fait ensuite état de divers dirigeants, comme Hugo Chávez, qui ont utilisé la rhétorique des USA pour appuyer leurs propres projets concernant Internet.

Il accuse également Andrew Mc Laughlin, conseiller technique adjoint du gouvernement des États-Unis, d’avoir fourni des munitions aux dictateurs du monde entier en déclarant publiquement que les compagnies de télécommunications américaines censurent en secret leurs réseaux, car cela a permis aux dictateurs de justifier leurs propres politiques.

C’est peut-être le passage le plus bizarre de Net Delusion, car il revient à dénoncer le fait qu’un homme politique américain combatte la censure sur le territoire national, au prétexte que les dictateurs étrangers seront réconfortés d’apprendre qu’ils ne sont pas les seuls à pratiquer la censure. Il me semble peu vraisemblable que Morozov veuille véritablement que les hommes politiques occidentaux ferment les yeux sur la censure opérée dans leurs pays de peur que l’écho des imperfections de l’Occident ne parvienne à des oreilles hostiles.

Dans la foulée, Morozov nous prévient que les dictateurs ne sont ni des imbéciles ni des fous, mais plutôt des politiciens extrêmement retors, et techniquement très éclairés. Je pense qu’il a raison : la caricature occidentale dépeignant les dictatures comme des idiocraties criminelles vacillantes ne coïncide tout simplement pas avec les réalisations techniques et sociales de ces États – et c’est justement pourquoi je pense qu’il a tort sur les relations entre les dictatures et Internet. Le pouvoir découle directement de mécanismes de communication et d’organisation, et Internet est là depuis suffisamment longtemps pour que tout autocrate accompli en ait pris note. L’idée que l’élite gouvernante de l’Iran n’ait pris conscience du pouvoir d’Internet que lorsque le ministère des affaires étrangères des États-Unis ont publiquement demandé à Twitter de modifier son planning de maintenance (afin de ne pas interférer avec les tweets liés aux élections en Iran) me paraît aussi ridicule que la surestimation, par ce même ministère des affaires étrangères, de l’influence que peut avoir Twitter sur la politique étrangère. Les activistes qui ont fait attention à la manière dont les États autoritaires interfèrent dans l’utilisation d’Internet par leurs citoyens, savent que la méfiance – et la convoitise – à l’égard du pouvoir d’Internet s’est développée dans les dictatures du monde entier depuis le moment où l’opinion publique s’est intéressée à Internet.

Le véritable problème dans la présentation que Morozov fait des « net-utopistes » est qu’ils n’ont rien en commun avec le mouvement que je connais intimement et dont je fais partie depuis une décennie. Là où Morozov décrit des personnes qui voient Internet comme une « force uni-directionnelle et déterministe allant soit vers une émancipation globale, soit vers une oppression globale » ou « qui refusent de reconnaître que le Web peut tout autant renforcer les régimes autoritaires que les affaiblir », je ne vois que des arguments spécieux, des caricatures inspirées des gros titres de CNN, des extraits sonores de porte-paroles de l’administration américaine, et des réparties de conférence de presse.

Tous ceux que je connais dans ce mouvement – des donateurs aux concepteurs d’outils, en passant par les traducteurs, des activistes de choc aux mordus de l’ONU – savent qu’Internet représente un risque tout autant qu’une opportunité. Mais contrairement à Morozov, ces personnes ont un plan pour minimiser les risques émanant de l’utilisation d’Internet (ceci explique pourquoi il y a tant de campagnes autour de la vie privée et des problèmes de censure provenant des logiciels propriétaires, des services de réseaux sociaux et des systèmes centralisés de collecte de données comme Google) et pour maximiser son efficacité en tant qu’outil d’émancipation. Ce plan implique le développement de logiciels libres et la diffusion de pratiques qui garantissent un meilleur anonymat, des communications plus sécurisées, et même des outils abstraits comme des protocoles réseau à divulgation nulle de connaissance qui permettent une large propagation des informations à travers de vastes groupes de personnes sans révéler leurs identités.

Morozov a raison d’affirmer que les hommes politiques occidentaux ont une vue simpliste du lien entre Internet et la politique étrangère, mais ce n’est pas simplement un problème de politique étrangère, ces mêmes hommes politiques ont incroyablement échoué à percevoir les conséquences d’Internet sur le droit d’auteur, la liberté d’expression, l’éducation, l’emploi et tous les autres sujets d’importance. Morozov a raison de dire que les métaphores dignes de la Guerre Froide comme « Grande muraille électronique » occultent autant qu’elles dévoilent (Net Delusion vaut son prix ne serait-ce que pour sa brillante démonstration que les dictatures utilisent autant les « champs » que les « murs » dans leurs stratégies Internet, et que ceux-ci demandent à être « irrigués » plutôt que « renforcés » ou « démolis »).

Mais dans son zèle à éveiller les décideurs politiques aux nuances et aux aspects non-techniques de la politique étrangère, il est approximatif et paresseux. Il affirme que ce qui différencie Internet d’un fax de l’époque des samizdat, c’est qu’Internet est utile tout autant aux oppresseurs qu’aux opprimés – mais je n’ai jamais rencontré de bureaucrate qui n’aimait pas son fax.

Et bien que Morozov tienne à nous montrer que « ce ne sont pas les tweets qui font tomber les gouvernements, c’est le peuple », il déclare ensuite allègrement que le bloc soviétique s’est désagrégé de lui-même, et pas à cause du peuple, qui n’a eu aucun rôle dans cet inévitable coup de balai de l’Histoire. Morozov croit peut-être que c’est exact dans le cas de l’URSS, mais étant donné qu’une large part du reste du livre est consacrée à la situation difficile des dissidents sur le terrain, je pense que l’on peut affirmer que même Morozov serait d’accord avec lui-même pour dire que, parfois, le peuple joue un rôle dans le renversement des régimes autoritaires.

Pour parvenir à ce but, les dissidents ont besoin de systèmes pour communiquer et s’organiser. Toute entreprise humaine qui nécessite le travail de plusieurs personnes doit consacrer une certaine partie de ses ressources au problème de la coordination : Internet a simplifié grandement ce problème (rappelez-vous les heures consacrées par les activistes au simple envoi de cartes postales contenant les informations au sujet d’une prochaine manifestation). En cela, Internet a donné un avantage substantiel aux dissidents et aux outsiders (qui ont, par définition, moins de ressources de départ) par rapport aux personnes détenant le pouvoir (qui, par définition, ont amassé suffisamment de ressources pour en engloutir une partie dans la coordination et en conserver encore suffisamment pour gouverner).

Internet permet à d’avantage de personnes de s’exprimer et de participer, ce qui signifie inévitablement que les mouvements de protestation vont avoir un ensemble d’objectifs plus diffus qu’à l’époque des révolutions autoritaires orchestrées par le haut. Mais Morozov idéalise le consensus des révolutions passées – que ce soit en 1776, 1914 ou 1989, chaque révolution réussie est une fragile coalition d’intérêts et de points de vue antagonistes, rassemblés par le désir commun d’abolir l’ancien système, même s’il n’y a pas de consensus sur ce qui doit le remplacer.

Désormais, Internet est devenu tellement intégré au fonctionnement des États du monde entier qu’il semble difficile d’accorder crédit à la crainte de Morozov selon laquelle, en cas de menace révolutionnaire sérieuse, les gouvernements débrancheraient simplement la prise. Comme Morozov lui-même le fait remarquer, la junte brutale de Birmanie a laissé fonctionner Internet en permanence pendant les violentes répressions des émeutes politiques, en dépit de la désapprobation mondiale qu’elle a subie du fait des compte-rendus diffusés sur Internet; la Chine dépend tellement du Net pour son fonctionnement interne qu’il est impossible d’envisager une coupure du Net à l’échelle nationale (et les coupures régionales, comme celle de la province du Xinjiang pendant les émeutes des Ouïghours, sont justement remarquables par leur caractère exceptionnel).

Le monde a besoin de plus de personnes œuvrant à l’amélioration du sort des activistes qui utilisent Internet (c’est-à-dire de tous les activistes). Nous avons besoin d’un débat sérieux au sujet des tactiques comme les DDoS (distributed denial-of-service attack ou attaques distribuées par déni de service) – qui inondent les ordinateurs avec de fausses requêtes pour les rendre inaccessibles – que certains ont comparés à des sit-in. En tant que personne arrêtée lors de sit-ins, je pense que cette comparaison est fausse. Un sit-in ne tire pas uniquement son efficacité du blocage des portes de tel endroit blâmable, mais de la volonté affichée de se tenir devant ses voisins et d’assumer le risque d’une arrestation ou de blessures au bénéfice d’une cause juste, ce qui confère une légitimité éthique à la démarche et facilite l’adhésion. En tant que tactique, les DDoS s’apparentent plus à de la super glu dans les serrures d’une entreprise ou au sabotage des lignes de téléphone – risqué, c’est certain, mais plus proche du vandalisme et donc moins susceptible de rallier vos voisins à votre cause.

Nous devons réparer l’Internet mobile, qui – reposant sur des réseaux et des appareils fermés – est plus propice à la surveillance et au contrôle que l’Internet filaire. Nous devons nous battre contre les manœuvres– menées par les entreprises du divertissement et les géants de l’informatique comme Apple et Microsoft – consistant à concevoir des machines dont le fonctionnement est secret et échappe au consentement de leur propriétaire, au prétexte de protéger le copyright.

Nous devons prêter attention à Jonathan Zittrain (un autre universitaire que Morozov tout à la fois rejette puis rejoint sans même s’en rendre compte), dont « Le Futur d’Internet » met en garde sur le fait que l’augmentation des crimes, escroqueries et autres fraudes sur le Net fatigue l’utilisateur et rend les gens plus enclins à accepter d’utiliser des appareils et des réseaux verrouillés, pouvant être utilisés aussi bien pour les contrôler que pour les protéger.

Nous avons besoin de tout cela, et surtout d’une critique sérieuse et d’une feuille de route pour l’avenir de l’activisme sur le Net, car les régimes répressifs du monde entier (y compris les soit-disant gouvernements libres de notre Occident) usent pleinement des nouvelles technologies à leur avantage, et le seul moyen pour l’activisme d’être efficace dans cet environnement est d’utiliser les mêmes outils.

Notes

[1] Crédit photo : Anonymous9000 (Creative Commons By)




Petit précis de lutte contre le copyright par Cory Doctorow

Joi - CC byEn ces temps troublés où fait rage le débat (ou plutôt la lutte en ce qui nous concerne) sur l’adoption du projet de loi Hadopi, où l’engagement et l’indignation des uns se heurte à l’indifférence, à la mauvaise foi ou à l’entêtement forcené des autres, il est bon d’avoir l’avis d’un artiste, un écrivain en l’occurrence, qui sait de quoi il parle.

Il s’agit de Cory Doctorow, dont nous avions déjà traduit ses difficultés existentielles d’écrivain à l’ère d’Internet.

Petit rappel : Cory Doctorow[1] est un auteur de science-fiction d’origine canadienne, journaliste et blogueur, animateur du site BoingBoing, militant à l’EFF, partisan de la free-culture et, comme il se définit lui-même, « activiste du numérique ».

En plus d’écrire des romans de qualité (Dans la dèche au royaume enchanté, Folio SF ; et son dernier, Little Brother, doit bientôt paraître chez Pocket, et ça les amis, c’est un scoop, de l’insider information.) publiés de façon classique, Cory Doctorow met à disposition toutes ses œuvres sous licence Creative Commons, à télécharger gratuitement (en anglais, les traductions françaises sont quant à elles soumises au régime des droits d’auteur).

Dans la préface à ses romans proposés au format pdf, il explique que cette démarche est pour lui la meilleure façon de ne pas vivre dans l’ombre et de voir son art diffusé, citant l’aphorisme de Tim O’Reilly : « Pour la majorité des écrivains, le gros problème ce n’est pas d’être piraté, c’est de rester inconnu ».

Dans cet article publié sur LocusMag.com (site d’un magazine de SF), Cory Doctorow expose de façon claire et pédagogique son point de vue sur le copyright (on pourrait dire droit d’auteur mais la notion n’est pas exactement la même), et explique en substance qu’à trop vouloir verrouiller le partage, on va finir par tuer la culture.

J’adapterai sa conclusion à la situation que nous vivons en ce moment en France et qui est en plein dans l’actualité, le projet de loi « Création et Internet » devant être examiné aujourd’hui, et ajouterai qu’en cherchant à préserver un modèle obsolète de diffusion du contenu culturel, les soi-disant défenseurs de la culture ne font que scier la branche sur laquelle ils sont assis.

Why I Copyfight : pourquoi je suis contre le copyright

Why I Copyfight

Cory Doctorow – novembre 2008 – LocusMag
(Traduction Framalang : Don Rico)

Pourquoi accorder tant d’importance à la question de la réforme du copyright ? Qu’est-ce qui est en jeu ?

Tout.

Jusqu’à une époque récente, le copyright était une réglementation industrielle. Si l’on tombait dans le domaine du copyright, cela signifiait que l’on utilisait quelque prodigieuse machine industrielle – une presse d’imprimerie, une caméra de cinéma, une presse à disques vinyles. Le coût d’un tel équipement étant conséquent, y ajouter deux cents billets pour s’offrir les services d’un bon avocat du droit de la propriété intellectuelle n’avait rien d’un sacrifice. Ces frais n’ajoutaient que quelques points de pourcentage au coût de production.

Lorsque des entités n’appartenant pas une industrie (individus, écoles, congrégations religieuses, etc.) interagissaient avec des œuvres soumises au copyright, l’utilisation qu’elles en avaient n’était pas régie par le droit de la propriété intellectuelle : elles lisaient des livres, écoutaient de la musique, chantaient autour du piano ou allaient au cinéma. Elles discutaient de ces œuvres. Elles les chantaient sous la douche. Les racontaient (avec des variations) aux enfants à l’heure du coucher. Les citaient. Peignaient des fresques inspirées de ces œuvres sur le mur de la chambre des enfants.

Puis vinrent les débuts du copyfight (NdT : lutte contre le copyright, abrégé ici en « anti-copyright ») : ce fut l’ère analogique, lorsque magnétoscopes, double lecteurs de cassettes, photocopieuses et outils de copie apparurent. Il était alors possible de se livrer à des activités relevant du droit de la propriété intellectuelle (copie, interprétation, projection, adaptation) avec des objets de tous les jours. On trouvait parfois sur les stands de vente des conventions SF des « romans » fanfics grossièrement reliés, les ados se draguaient à coups de compils, on pouvait apporter un film enregistré sur cassette chez les voisins pour se faire une soirée vidéo.

Pourtant, en comparaison, on risquait alors beaucoup moins gros. Même si l’on pouvait douter du caractère légal de certaines de ces activités (nul doute que les gros détenteurs de droits d’auteur les considéraient comme des valises nucléaires technologiques, comparaient les magnétoscopes à Jack l’Éventreur et affirmaient que « copier un disque sur une cassette allait tuer la musique »), faire appliquer la loi coûtait très cher. Éditeurs, maisons de disques et studios de cinéma ne pouvaient surveiller les activités auxquelles vous vous livriez chez vous, au travail, dans les fêtes ou aux conventions ; en tout cas pas sans recourir à un réseau ruineux de cafteurs rémunérés dont les salaires auraient dépassé les éventuelles pertes subies.

Arrive alors l’Internet et l’ordinateur personnel. Voici deux technologies qui forment une combinaison parfaite pour précipiter les activités ordinaires des gens ordinaires dans le monde du copyright : chaque foyer possède l’équipement nécessaire pour commettre des infractions en masse (le PC), lesquelles infractions se déroulent par le biais d’un vecteur public ‘l’Internet) que surveiller ne coûte rien, permettant ainsi une mise en application du copyright à faible coût dirigée contre des milliers d’Internautes comme vous et moi.

Qui plus est, les échanges effectués par Internet sont davantage susceptibles de représenter une violation du copyright que leur équivalent hors-ligne, car chaque échange sur Internet implique une copie. L’Internet est un système conçu pour produire de façon efficace des copies entre ordinateurs. Alors qu’il suffit de simples vibrations de l’air pour rendre possible une discussion dans votre cuisine, la même discussion passant par Internet génère des milliers de copies. Chaque fois que vous pressez une touche, cette action est copiée plusieurs fois sur votre ordinateur, copiée vers votre modem, puis copiée sur toute une série de routeurs, et ensuite (souvent) sur un serveur, processus qui aboutit à des centaines de copies, éphémères ou durables, pour enfin parvenir aux autres participants à la discussion, chez qui seront sans doute produites des dizaines de copies supplémentaires.

Dans le droit de la propriété intellectuelle, on considère la copie comme un événement rare et non négligeable. Sur Internet, la copie est automatique, instantanée, et produite en masse. Punaisez une vignette de Dilbert sur la porte de votre bureau, vous n’enfreignez pas le copyright. Prenez une photo de la porte de votre bureau et publiez-la sur votre site perso de sorte que vos mêmes collègues la voient, vous avez enfreint le copyright. Et puisque le droit de la propriété intellectuelle considère la copie comme une activité très réglementée, il impose des amendes pouvant atteindre des centaines de milliers de dollars pour chaque infraction.

Il existe un mot pour désigner tout ce que nous faisons à partir de créations intellectuelles – discuter, raconter, chanter, jouer, dessiner et réfléchir : ça s’appelle la culture.

La culture est ancienne. Elle existait bien avant le copyright.

L’existence de la culture, voilà qui rend le copyright rentable. Notre soif infinie de chansons à chanter ensemble, d’histoires à partager, d’art à admirer et à ajouter à notre vocabulaire visuel, telle est la raison qui nous pousse à dépenser de l’argent pour satisfaire ces désirs.

J’insiste sur ce point : si le copyright existe, c’est parce que la culture génère un marché pour les œuvres de l’esprit. Sans marché pour ces œuvres, il n’existerait aucune raison de se soucier du copyright.

Le contenu n’est pas roi : c’est la culture qui est reine. Si nous allons au cinéma, c’est pour discuter du film. Si je vous expédiais sur une île déserte et vous sommais de choisir entre vos disques et vos amis, vous seriez un sociopathe si vous choisissiez la musique.

Pour qu’il y ait culture, il faut partager l’information : la culture, c’est le partage de l’information. Les lecteurs de science-fiction le savent : dans le métro, le gars assis en face de vous qui est en train de bouquiner un roman de SF à couverture tapageuse fait partie de votre clan. Il y a de fortes chances que vous partagiez certains goûts de lecture, les mêmes références culturelles, et des sujets de discussion.

Si vous adorez une chanson, vous la faites écouter aux autres membres de votre tribu. Quand vous adorez un livre, vous le fourrez dans les mains de vos amis pour les encourager à le lire à leur tour. Quand vous voyez une émission géniale à la télé, vous incitez vos amis à la regarder aussi, ou bien vous cherchez ceux qui l’ont déjà regardée et entamez la conversation.

La réflexe naturel de quiconque s’entiche d’une œuvre de création, c’est de la partager. Et puisque sur Internet « partager » équivaut à « copier », voilà qui vous met directement dans le colimateur du copyright. Tout le monde copie. Dan Glickman, ancien membre du Congrès à présent à la tête de la Motion Picture Association of America (NdT : équivalent pour le cinéma de la tristement célèbre RIAA), défenseur on ne peut plus zélé du copyright, a reconnu avoir copié le documentaire de Kirby Dick This Film is Not Yet Rated (NdT : ce film n’a pas encore été classé), une critique au vitriol du processus de classement des films par la MPAA, mais a pris comme prétexte que la copie se trouvait « dans (son) coffre-fort ». Prétendre qu’on ne pratique pas la copie, c’est être aussi crispé et hypocrite que les anglais de l’époque victorienne qui juraient ne jamais, au grand jamais, se masturber. Chacun sait qu’il nous arrive à tous de mentir, et un grand nombre d’entre nous sait que tous les autres mentent aussi.

Mais le problème auquel est confronté le copyright, c’est que la plupart de ceux qui copient le reconnaissent volontiers. La majorité des internautes américains pratiquent l’échange de fichiers, considéré comme illégal. Si demain l’échange de fichiers par réseau P2P était enrayé, ceux qui le pratiquent partageraient les mêmes fichiers, et plus encore, en échangeant des disques durs, des clés USB ou encore des cartes mémoire (et davantage de données changeraient de main, bien que plus lentement).

Ceux qui copient savent qu’ils enfreignent les lois du copyright mais ne s’en inquiètent pas, ou croient que la loi ne peut criminaliser leurs pratiques, et pensent qu’elle lutte contre des formes de copie plus extrêmes telles que la vente de DVD pirates à la sauvette. En réalité, le droit du copyright réprime beaucoup moins lourdement ceux qui revendent des DVD que ceux qui téléchargent les mêmes films gratuitement sur Internet, et l’on risque beaucoup moins gros en achetant un de ces DVD (à cause des coûts très élevés de la lutte contre ceux qui font du commerce dans le monde réel) qu’en les téléchargeant sur le Net.

D’ailleurs, ceux qui pratiquent la copie s’attachent à établir une philosophie très élaborée à propos de ce qu’on a le droit ou pas de télécharger, avec qui et dans quelles circonstances. Ils intègrent des cercles privés de partage, décident entre eux de normes à respecter, et créent une multitude de para-copyrights qui constituent l’expression d’un accord culturel définissant la façon dont ils doivent se comporter.

Le gros problème, c’est que ces para-copyrights n’ont quasi rien en commun avec le véritable droit du copyright. Peu importe que vous en soyez partisan ou non, vous enfreignez sans doute la loi – alors si vous concevez des vidéo-clips d’animés (des clips de musique conçus en mettant bout à bout des séquences de films mangas — cherchez « vidéo-clips d’animés » dans Google pour en voir des exemples), vous aurez beau respecter les règles établies par votre groupe – par exemple l’interdiction de montrer vos créations à des personnes extérieures à votre groupe et l’obligation de n’utiliser que certaines sources de musique et de vidéos –, vous n’en commettrez pas moins pour des millions de dollars d’infractions à chaque fois que vous vous installerez devant votre PC.

Rien d’étonnant à ce que le para-copyright et le copyright ne puissent trouver de terrain d’entente. Car après tout, le copyright réglemente les pratiques commerciales entre entreprises géantes. Le para-copyright ne réglemente que les pratiques d’individus dans un cadre culturel donné. Normal que ces ensembles de règles n’aient rien en commun.

Il est tout à fait possible qu’on parvienne un jour à une détente entre ceux qui pratiquent la copie et les détenteurs de copyright : par exemple avec un ensemble de règles qui ne s’appliqueraient qu’à la « culture » et non à « l’industrie ». Mais pour amener autour de la table ceux qui copient, il faut impérativement cesser d’insinuer que toute copie non autorisée équivaut à du vol, à un crime, à un acte condamnable. Face à de tels propos, ceux qui savent la copie facile, juste et bénéfique estiment que ses détracteurs racontent n’importe quoi ou que leurs arguments ne les concernent pas.

Si demain l’on mettait fin à la copie sur Internet, on mettrait également fin à la culture sur Internet. Sans sa mine de vidéos considérées en infraction, YouTube disparaîtrait ; sans ses petits avatars et ses passionnants extraits de livres, d’articles et de blogs, LiveJournal passerait l’arme à gauche ; sans toutes ses photos d’objets, d’œuvres et de scènes sous copyright, sous marque déposée ou protégées d’une façon ou d’une autre, Flickr se viderait de sa substance et crèverait.

C’est grâce à nos discussions que nous voulons acquérir les œuvres dont nous discutons. Les fanfics sont écrits par des fanas de littérature. Les vidéos sur YouTube sont mises en ligne par ceux qui veulent vous donner envie de regarder les émissions dont elles sont extraites afin d’en discuter. Les avatars de LiveJournal permettent de montrer que l’on apprécie une œuvre.

Si la culture perd la guerre du copyright, ce que le copyright est censé défendre mourra avec lui.

Notes

[1] Crédit photo : Joi Ito (Creative Commons By)




Logiciel libre et anarchisme

Par sa volonté de décentralisation, le logiciel libre est présenté comme porteur de valeurs anarchistes, et parfois vilipendé par certaines institutions pour cela. Mais pour autant que les méthodes de travail puissent être reliées à des pratiques libertaires, voire revendiquées comme telles, peut-on réellement considérer qu’il en adopte toutes les valeurs, les ambitions et le message politique ?

Framatophe vous propose ici de retracer un peu la façon dont les mouvements du logiciel libre et des mouvements anarchistes se sont côtoyés au fil des ans et, surtout, comment ils pourraient mieux apprendre l’un de l’autre.

Logiciel libre et anarchisme

À travers le monde et à travers l’histoire, les mouvements anarchistes ont toujours subi la surveillance des communications. Interdiction des discours publics et rassemblements, arrestations d’imprimeurs, interceptions téléphoniques, surveillance numérique. Lorsque je parle ici de mouvements anarchistes, je désigne plutôt tous les mouvements qui contiennent des valeurs libertaires. Bien au-delà des anciennes luttes productivistes des mouvements ouvriers, anarcho-syndicalistes et autres, le fait est qu’aujourd’hui énormément de luttes solidaires et pour la justice sociale ont au moins un aspect anarchiste sans pour autant qu’elles soient issues de mouvements anarchistes « historiques ». Et lorsqu’en vertu de ce « déjà-là » anarchiste qui les imprègne les sociétés font valoir leurs libertés et leurs souhaits en se structurant en organes collectifs, les États et les organes capitalistes renforcent leurs capacités autoritaires dont l’un des aspects reconnaissables est le contrôle des outils numériques.

Cela aboutit parfois à des mélanges qu’on trouverait cocasses s’ils ne démontraient pas en même temps la volonté d’organiser la confusion pour mieux dénigrer l’anarchisme. Par exemple cette analyse lamentable issue de l’École de Guerre Économique, au sujet de l’emploi du chiffrement des communications, qui confond anarchisme et crypto-anarchisme comme une seule « idéologie » dangereuse. Or il y a bien une différence entre prémunir les gens contre l’autoritarisme et le contrôle numérique et souhaiter l’avènement de nouvelles féodalités ultra-capitalistes au nom dévoyé de la liberté. Cette confusion est d’autant plus savamment orchestrée qu’elle cause des tragédies. En France, l’affaire dite du 8 décembre 20201, sorte de remake de l’affaire Tarnac, relate les gardes à vue et les poursuites abusives à l’encontre de personnes dont le fait d’avoir utilisé des protocoles de chiffrement et des logiciels libres est déclaré suspect et assimilable à un comportement dont le risque terroriste serait avéré – en plus d’avoir lu des livres d’auteurs anarchistes comme Blanqui et Kropotkine. Avec de tels fantasmes, il va falloir construire beaucoup de prisons.

caricature suggérant qu'à travers un ordinateur des services secrets "récupèrent" le cerveau éjecté d'un quidam qui est comme étranglé.
Die Hackerbibel, Chaos Computer Club, 1998, illlustration page 15

Le logiciel libre a pourtant acquis ses lettres de noblesses. Par exemple, si Internet fonctionne aujourd’hui, c’est grâce à une foule de logiciels libres. Ces derniers sont utilisés par la plupart des entreprises aujourd’hui et il n’y a guère de secteurs d’activités qui en soient exempts. En revanche, lorsqu’on considère l’ensemble des pratiques numériques basées sur l’utilisation de tels communs numériques, elles font très souvent passer les utilisateurs experts pour de dangereux hackers. Or, lorsque ces utilisations ont pour objectif de ne pas dépendre d’une multinationale pour produire des documents, de protéger l’intimité numérique sur Internet, de faire fonctionner des ordinateurs de manière optimale, ne sont-ce pas là des préoccupations tout à fait légitimes ? Ces projections établissent un lien, souvent péjoratif, entre logiciel libre, activité hacker et anarchisme. Et ce lien est postulé et mentionné depuis longtemps. Le seul fait de bricoler des logiciels et des machines est-il le seul rapport entre logiciel libre et anarchisme ? Que des idiots trouvent ce rapport suspect en fait-il pour autant une réalité tangible, un lien évident ?

Le logiciel libre comporte quatre libertés : celle d’utiliser comme bon nous semble le logiciel, celle de partager le code source tout en ayant accès à ce code, celle de le modifier, et celle de partager ces modifications. Tout cela est contractuellement formalisé par les licences libres et la première d’entre elles, la Licence Publique Générale, sert bien souvent de point de repère. L’accès ouvert au code combiné aux libertés d’usage et d’exploitation sont communément considérés comme les meilleurs exemples de construction de communs numériques et de gestion collective, et représentent les meilleures garanties contre l’exploitation déloyale des données personnelles (on peut toujours savoir et expertiser ce que fait le logiciel ou le service). Quelle belle idée que de concevoir le Libre comme la traduction concrète de principes anarchistes : la lutte contre l’accaparement du code, son partage collaboratif, l’autogestion de ce commun, l’horizontalité de la conception et de l’usage (par opposition à la verticalité d’un pouvoir arbitraire qui dirait seul ce que vous pouvez faire du code et, par extension, de la machine). Et tout cela pourrait être mis au service des mouvements anarchistes pour contrecarrer la surveillance des communications et le contrôle des populations, assurer la liberté d’expression, bref créer de nouveaux communs, avec des outils libres et une liberté de gestion.

Belle idée, partiellement concrétisée à maints endroits, mais qui recèle une grande part d’ombre. Sur les communs que composent les logiciels libres et toutes les œuvres libres (logiciels ou autres), prolifère tout un écosystème dont les buts sont en réalité malveillants. Il s’agit de l’accaparement de ces communs par des acteurs moins bien intentionnés et qui paradoxalement figurent parmi les plus importants contributeurs au code libre / open source. C’est que face à la liberté d’user et de partager, celle d’abuser et d’accaparer n’ont jamais été contraintes ni éliminées : les licences libres ne sont pas moralistes, pas plus qu’elles ne peuvent légitimer une quelconque autorité si ce n’est celle du contrat juridique qu’elles ne font que proposer. On verra que c’est là leur fragilité, nécessitant une identification claire des luttes dont ne peut se départir le mouvement du logiciel libre.

Collaboration sans pouvoir, contribution et partage : ce qui pourrait bien s’apparenter à de grands principes anarchistes fait-il pour autant des mouvements libristes des mouvements anarchistes et du logiciel libre un pur produit de l’anarchie ? Par exemple, est-il légitime que le système d’exploitation Android de Google-Alphabet soit basé sur un commun libre (le noyau Linux) tout en imposant un monopole et des contraintes d’usage, une surveillance des utilisateurs et une extraction lucrative des données personnelles ? En poussant un peu plus loin la réflexion, on constate que la création d’un objet technique et son usage ne sont pas censés véhiculer les mêmes valeurs. Pourtant nous verrons que c’est bien à l’anarchie que font référence certains acteurs du logiciel libre. Cette imprégnation trouve sa source principale dans le rejet de la propriété intellectuelle et du pouvoir qu’elle confère. Mais elle laisse néanmoins l’esprit anarchiste libriste recroquevillé dans la seule production technique, ouvrant la voie aux critiques, entre tentation libertarienne, techno-solutionnisme et mépris de classe. Sous certains aspects, l’éthique des hackers est en effet tout à fait fongible dans le néolibéralisme. Mais il y a pourtant un potentiel libertaire dans le libre, et il ne peut s’exprimer qu’à partir d’une convergence avec les luttes anticapitalistes existantes.

Des libertés fragiles

Avant d’entrer dans une discussion sur le rapport historique entre logiciel libre et anarchie, il faut expliquer le contexte dans lequel un tel rapport peut être analysé. Deux points de repère peuvent être envisagés. Le premier point de repère consiste à prendre en compte que logiciel libre et les licences libres proposent des développements et des usages qui sont seulement susceptibles de garantir nos libertés. Cette nuance a toute son importance. Le second point consiste à se demander, pour chaque outil numérique utilisé, dans quelle mesure il participe du capitalisme de surveillance, dans quelle mesure il ouvre une brèche dans nos libertés (en particulier la liberté d’expression), dans quelle mesure il peut devenir un outil de contrôle. C’est ce qui ouvre le débat de l’implication des mouvements libristes dans diverses luttes pour les libertés qui dépassent le seul logiciel en tant qu’objet technique, ou l’œuvre intellectuelle ou encore artistique placée sous licence libre.

Ce sont des techniques…

Il ne faut jamais perdre de vue que, en tant que supports de pensée, de communication et d’échanges, les logiciels (qu’ils soient libres ou non) les configurent en même temps2. C’est la question de l’aliénation qui nous renvoie aux anciennes conceptions du rapport production-machine. D’un point de vue marxiste, la technique est d’abord un moyen d’oppression aux mains des classes dominantes (l’activité travail dominée par les machines et perte ou éloignement du savoir technique). Le logiciel libre n’est pas exempt de causer cet effet de domination ne serait-ce parce que les rapports aux technologies sont rarement équilibrés. On a beau postuler l’horizontalité entre concepteur et utilisateur, ce dernier sera toujours dépendant, au moins sur le plan cognitif. Dans une économie contributive idéale du Libre, concepteurs et utilisateurs devraient avoir les mêmes compétences et le même degré de connaissance. Mais ce n’est généralement pas le cas et comme disait Lawrence Lessig, « Code is law »3.

Le point de vue de Simondon, lui, est tout aussi acceptable. En effet l’automatisation – autonomisation de la technique (émancipation par rapport au travail) suppose aussi une forme d’aliénation des possédants vis-à-vis de la technique4. Le capital permet la perpétuation de la technique dans le non-sens du travail et des comportements, leur algorithmisation, ce qui explique le rêve de l’usine automatisée, étendu à la consommation, au-delà du simple fait de se débarrasser des travailleurs (ou de la liberté des individus-consommateurs). Cependant la culture technique n’équivaut pas à la maîtrise de la technique (toujours subordonnée au capital). Censé nous livrer une culture technique émancipatrice à la fois du travail et du capital (la licence libre opposée à la propriété intellectuelle du « bien » de production qu’est le logiciel), le postulat libriste de l’équilibre entre l’utilisateur et le concepteur est dans les faits rarement accompli, à la fois parce que les connaissances et les compétences ne sont pas les mêmes (voir paragraphe précédent) mais aussi parce que le producteur lui-même dépend d’un système économique, social, technique, psychologique qui l’enferme dans un jeu de dépendances parfois pas si différentes de celles de l’utilisateur. L’équilibre peut alors être trouvé en créant des chaînes de confiance, c’est-à-dire des efforts collectifs de création de communs de la connaissance (formations, entraide, vulgarisation) et des communs productifs : des organisations à tendances coopératives et associatives capables de proposer des formules d’émancipation pour tous. Créer du Libre sans proposer de solutions collectives d’émancipation revient à démontrer que la liberté existe à des esclaves enchaînés tout en les rendant responsables de leurs entraves.

…Issues de la culture hacker

La culture hacker est un héritage à double tranchant. On a longtemps glorifié les communautés hackers des années 1960 et 1970 parce qu’elles sont à l’origine de l’aventure libératrice de l’ordinateur et des programmes hors du monde hiérarchisé de la Défense et de l’Université. Une sorte de « démocratisation » de la machine. Mais ce qu’on glorifie surtout c’est le mode de production informatique, celui qui a donné lieu aux grandes histoires des communautés qui partageaient la même éthique des libertés numériques et que Steven Lévy a largement popularisé en définissant les contours de cette « éthique hacker »5. Le projet GNU de R. M. Stallman, à l’origine dans les années 1980 de la Licence Publique Générale et de la formulation des libertés logicielles en droit, est surtout l’illustration d’une économie logicielle qui contraint la contribution (c’est la viralité de la licence copyleft) et promeut un mode de développement collectif. Ce qu’on retient aussi de la culture hacker, c’est la réaction aux notions de propriété intellectuelle et d’accaparement du code. On lui doit aussi le fait qu’Internet s’est construit sur des protocoles ouverts ou encore les concepts d’ouverture des formats. Pourtant l’état de l’économie logicielle et de l’Internet des plateformes montre qu’aujourd’hui nous sommes loin d’une éthique de la collaboration et du partage. Les enjeux de pouvoir existent toujours y compris dans les communautés libristes, lorsque par exemple des formats ou des protocoles sont imposés davantage par effet de nombre ou de mode que par consensus6.

 

dessin d'humour sur la couverture du magazine du Chaos Computer Club : un type à casquette à l'envers et en salopette se régale (langue tirée) devant un écran qui demande "qui est là" en allemand, une souris à antenne émet un biiiip sur son bureau. Un verre de coca avec une paille s'y trouve aussi de l'autre côté du clavier. Ordinateur de 1998 donc assez vintage aujourd'hui.
Die Hackerbibel, Chaos Computer Club, 1998, couverture

Comme le montre très bien Sébastien Broca7, l’éthique hacker n’est pas une simple utopie contrariée. Issue de la critique antihiérarchique des sixties, elle a aussi intégré le discours néomanagérial de l’accomplissement individuel qui voit le travail comme expression de soi, et non plus du collectif. Elle a aussi suivi les transformations sociales qu’a entraîné le capitalisme de la fin du XXe siècle qui a remodelé la critique artistique des sixties en solutionnisme technologique dont le fleuron est la Silicon Valley. C’est Fred Tuner qui l’écrit si bien dans un ouvrage de référence, Aux sources de l’utopie numérique : de la contre culture à la cyberculture8. Et pour paraphraser un article récent de ma plume à son propos9 : quelle ironie de voir comment les ordinateurs sont devenus synonymes d’émancipation sociale et de rapprochements entre les groupes sociaux, alors qu’ils sont en même temps devenus les instruments du capitalisme, du nouveau management et de la finance (ce que Detlef Hartmann appelait l’offensive technologique10), aussi bien que les instruments de la surveillance et de la « société du dossier ». C’est bien en tant que « menaces sur la vie privée » que les dépeignaient les premiers détracteurs des bases de données gouvernementales et des banques à l’instar d’Alan Westin11 au soir des années 1960. Tout s’est déroulé exactement comme si les signaux d’alerte ne s’étaient jamais déclenchés, alors que depuis plus de 50 ans de nombreuses lois entendent réguler l’appétit vorace des plateformes. Pourquoi ? Fred Turner y répond : parce que la priorité avait été choisie, celle de transformer le personal is political12 en idéologie néolibérale par le biais d’une philosophie hacker elle-même dévoyée au nom de la liberté et de l’accomplissement de soi.

Des communs mal compris et mal protégés

Ces communs sont mal compris parce qu’ils sont la plupart du temps invisibilisés. La majorité des serveurs sur Internet fonctionnent grâce à des logiciels libres, des protocoles parmi les plus courants sont des protocoles ouverts, des systèmes d’exploitation tels Android sont en fait construits sur un noyau Linux, etc. De tout cela, la plupart des utilisateurs n’ont cure… et c’est très bien. On ne peut pas attendre d’eux une parfaite connaissance des infrastructures numériques. Cela plonge néanmoins tout le monde dans un univers d’incompréhensions.

D’un côté, il y a l’ignorance du public (et bien souvent aussi des politiques publiques) du fait que la majeure partie des infrastructures numériques d’aujourd’hui reposent sur des communs, comme l’a montré N. Egbhal13. Ce fait crée deux effets pervers : le ticket d’entrée dans la « nouvelle économie », pour une start-up dont le modèle repose sur l’exploitation d’un système d’information logiciel, nécessite bien moins de ressources d’infrastructure que dans les années 1990 au point que la quasi-exclusivité de la valeur ajoutée repose sur l’exploitation de l’information et non la création logicielle. Il en résulte un appauvrissement des communs (on les exploite mais on ne les enrichit pas14) et un accroissement de l’économie de plateforme au détriment des infrastructures elles-mêmes : pour amoindrir encore les coûts, on s’en remet toujours plus aux entreprises monopolistes qui s’occupent de l’infrastructure matérielle (les câbles, les datacenter). D’un autre côté, il y a le fait que beaucoup d’organisations n’envisagent ces communs numériques qu’à l’aune de la rentabilité et de la compromission avec la propriété productive, ce qui a donné son grain à moudre à l’Open Source Initiative et sa postérité, reléguant les libristes dans la catégorie des doux utopistes. Mais l’utopie elle-même a ses limites : ce n’est pas parce qu’un service est rendu par des logiciels libres qu’il est sécurisé, durable ou protège pour autant les utilisateurs de l’exploitation lucrative de leurs données personnelles. Tout dépend de qui exploite ces communs. Cela relève en réalité du degré de confiance qu’on est capable de prêter aux personnes et aux organisations qui rendent le service possible.

Les licences libres elles-mêmes sont mal comprises, souvent vécues comme un abandon de l’œuvre et un manque à gagner tant les concepts de la « propriété intellectuelle » imprègnent jusqu’à la dernière fibre le tissu économique dans lequel nous sommes plus ou moins contraints d’opérer. Cela est valable pour les logiciels comme pour les productions intellectuelles de tous ordres, et cela empêche aussi le partage là où il pourrait être le plus bénéfique pour tous, par exemple dans le domaine de la recherche médicale.

Au lieu de cela, on assiste à un pillage des communs15, un phénomène bien identifié et qui connaît depuis les années 2000 une levée en force d’organisations de lutte contre ce pillage, qu’il s’agisse des biens communs matériels (comme l’eau, les ressources cultivables, le code génétique…) ou immatériels (l’art, la connaissance, les logiciels…). C’est la raison pour laquelle la décentralisation et l’autogestion deviennent bien plus que de simples possibilités à opposer à l’accaparement général des communs, mais elles sont aussi autant de voies à envisager par la jonction méthodologique et conceptuelle des organisations libristes, de l’économie solidaire et des mouvements durabilistes16.

Le libre et ses luttes, le besoin d’une convergence

Alors si le Libre n’est ni l’alpha ni l’oméga, si le mouvement pour le logiciel Libre a besoin de réviser sa copie pour mieux intégrer les modèles de développement solidaires et émancipateurs, c’est parce qu’on ne peut manifestement pas les décorréler de quatre autres luttes qui structurent ou devraient structurer les mouvements libristes aujourd’hui.

Une lutte pour imposer de nouveaux équilibres en droit

Les licences libres et leurs domaines d’application, en particulier dans les communs immatériels, ont besoin de compétences et d’alliances pour ne plus servir d’épouvantail, de libre-washing ou, pire, être détournés au profit d’une lucrativité de l’accès ouvert (comme c’est le cas dans le monde des revues scientifiques). Elles ont aussi besoin de compétences et d’alliances pour être mieux défendues : même si beaucoup de juristes s’en sont fait une spécialité, leur travail est rendu excessivement difficile tant le cadre du droit est rigide et fonctionne en référence au modèle économique dominant.

Une lutte pour imposer de nouveaux équilibres en économie

Pouvons-nous sciemment continuer à fermer les yeux sur l’usage d’une soi-disant éthique hacker au nom de la liberté économique sachant qu’une grande part des modèles économiques qui reposent sur des communs immatériels ont un intérêt public extrêmement faible en proportion des capacités d’exploitation lucrative et de la prolétarisation17 qu’ils entraînent. Cela explique par exemple que des multinationales telles Intel et IBM ou Google et Microsoft figurent parmi les grands contributeurs au Logiciel libre et open source18 : ils ont besoin de ces communs19. Et en même temps, on crée des inégalités sociales et économiques : l’exploitation de main-d’œuvre bon marché (comme les travailleurs du clic20) dont se gavent les entreprises du numérique repose elle aussi sur des infrastructures numériques libres et open source. Les communs numériques ne devraient plus être les supports de ce capitalisme21.

Une lutte pour un rééquilibrage infrastructurel

Parce que créer du code libre ne suffit pas, encore faut-il s’assurer de la protection des libertés que la licence implique. En particulier la liberté d’usage. À quoi sert un code libre si je ne peux l’utiliser que sur une plateforme non libre ? à quoi sert un protocole ouvert si son utilisation est accaparée par des systèmes d’information non libres ? À défaut de pouvoir rendre collectifs les câbles sous-marins (eux-mêmes soumis à des contraintes géopolitiques), il est toutefois possible de développer des protocoles et des logiciels dont la conception elle-même empêche ces effets d’accaparement. Dans une certaine mesure c’est ce qui a été réalisé avec les applications du Fediverse22. Ce dernier montre que la création logicielle n’est rien si les organisations libristes ne se mobilisent pas autour d’un projet commun et imaginent un monde numérique solidaire.

Une lutte contre les effets sociaux du capitalisme de surveillance

Qu’il s’agisse du conformisme des subjectivités engendré par l’extraction et l’exploitation des informations comportementales (ce qui dure depuis très longtemps23) ou du contrôle des populations rendu possible par ces mêmes infrastructures numériques dont la technopolice se sert (entre autres), les communautés libristes s’impliquent de plus en plus dans la lutte anti-surveillance et anti-autoritaire. C’est une tradition, assurément, mais ce qu’il manque cruellement encore, c’est la multiplication de points de contact avec les autres organisations impliquées dans les mêmes luttes et qui, bien souvent, se situent sur la question bien plus vaste des biens communs matériels. Combien d’organisations et de collectifs en lutte dans les domaines durabilistes comme l’écologie, le partage de l’eau, les enjeux climatiques, en sont encore à communiquer sur des services tels Whatsapp alors qu’il existe des canaux bien plus protégés24 ? Réciproquement combien d’associations libristes capables de déployer des solutions et de les vulgariser ne parlent jamais aux durabilistes ou autres ? Or, penser les organisations libristes sur un mode solidaire et anti-capitaliste revient à participer concrètement aux luttes en faveur des biens communs matériels, créer des alliances de compétences et de connaissances pour rendre ces luttes plus efficaces.

Le (mauvais) calcul anarchiste

Il y a toute une littérature qui traite du rapport entre librisme et anarchisme. Bien qu’elle ne soit pas toujours issue de recherches académiques, cela n’enlève rien à la pertinence et la profondeur des textes qui ont toujours le mérite d’identifier les valeurs communes tels l’anti-autoritarisme de l’éthique hacker, le copyleft conçu comme une lutte contre la propriété privée, le partage, ou encore les libertés d’usage. Et ces valeurs se retrouvent dans de nombreuses autres sphères inspirées du modèle libriste25 et toutes anticapitalistes. Pour autant, l’éthique hacker ou l’utopie « concrète » du logiciel libre, parce qu’elles sont d’abord et avant tout des formes de pratiques technologiques, ne portent pas per se ces valeurs. Comme je l’ai mentionné plus haut, l’éthique hacker et les utopies plus ou moins issues de la tradition hippie des années 1960 et 1970 sont aussi dépositaires du capitalisme techno-solutionniste exprimé, pour les besoins de la cause, par l’idéologie de la Silicon Valley.

C’est ce point de tension qui a tendance aujourd’hui à causer la diffusion d’une conception binaire du lien entre anarchisme et philosophie hacker. Elle repose sur l’idée selon laquelle c’est l’anarchisme américain qui donne une part fondatrice à la philosophie hacker et qui crée en quelque sorte une opposition interne entre une faction « de gauche » attachée aux combats contre la propriété et une faction « de droite » fongible dans le capitalisme dans la mesure où c’est l’efficacité dans l’innovation qui emporte le reste, c’est-à-dire un anarchisme réduit à être un mode d’organisation de la production et un faire-valoir d’une liberté de lucrativité « décomplexée ».

C’est caricatural, mais la première partie n’est pas inexacte. En effet, nous parlons pour l’essentiel d’un mouvement né aux États-Unis et, qui plus est, dans une période où s’est structurée la Nouvelle Gauche Américaine en phase avec des mouvements libertaires et/ou utopistes issus de la génération anti-guerre des années 1950. Simultanément, les ordinateurs mainframe ont commencé à être plus accessibles dans les milieux universitaires et les entreprises, favorisant la naissance des communautés hackers dans un mouvement d’apprentissage, de partage de connaissances et de pratiques. Par la suite ces communautés se structurèrent grâce aux communications numériques, en particulier Internet, et s’agrandirent avec l’apparition de la microinformatique.

Se reconnaissent-elles dans l’anarchisme ? Même si ses pratiques sont anarchistes, un collectif n’a nul besoin de se reconnaître en tant que tel. Il peut même ne pas en avoir conscience. C’est donc du côté des pratiques et in situ qu’il faut envisager les choses. Les communautés hacker sont issues d’une conjonction historique classique entre la cristallisation des idées hippies et libertaires et l’avènement des innovations techniques qui transforment alors radicalement l’économie (les systèmes d’information numériques). Cela crée par effet rétroactif des communautés qui génèrent elles-mêmes des objets techniques en se réappropriant ces innovations, et en changeant à leur tour le paysage économique en proposant d’autres innovations. On pense par exemple aux Bulletin Board Systems (par exemple le projet Community Memory, premier forum électronique géant et collaboratif), aux systèmes d’exploitation (comment Unix fut créé, ou comment Linux devint l’un des plus grands projets collaboratifs au monde), à des logiciels (le projet GNU), etc. Toutes ces pratiques remettent en cause la structure autoritaire (souvent académique) de l’accès aux machines, provoquent une démocratisation des usages informatiques, incarnent des systèmes de collaboration fondés sur le partage du code et des connaissances, permettent l’adoption de pratiques de prise de décision collective, souvent consensuelles. Couronnant le tout, l’apparition de la Licence Publique Générale initiée par Richard M. Stallman et Eben Moglen avec la Free Software Foundation propose une remise en question radicale de la propriété intellectuelle et du pouvoir qu’elle confère.

Le rapport avec l’anarchisme est de ce point de vue exprimé à maintes reprises dans l’histoire des communautés hacker. On y croise très souvent des références. Dans la biographie de Richard M. Stallman26, par exemple, le AI Lab qui devient le haut lieu de la « Commune Emacs », est décrit ainsi : « La culture hacker qui y régnait et sa politique d’anarchie allaient conférer au lieu l’aura d’éternel rebelle ». Plus loin dans le même livre, E. Moglen se remémore sa rencontre avec R. M. Stallman qu’il décrit comme la rencontre de deux anarchistes. Inversement, R. M. Stallman ne s’est jamais défini comme un anarchiste. Il va même jusqu’à soutenir que le logiciel libre est un mélange de communisme (au sens d’appropriation collective de la production), de capitalisme « éthique » (pouvoir en tirer des avantages lucratifs tant qu’on respecte les libertés des autres), et d’anarchisme (réduit à la liberté de contribuer ou non et d’user comme on veut)27.

Une approche fondée sur une enquête plus solide montre néanmoins que les principes anarchistes ne sont pas considérés comme de simples étiquettes dans les communautés hacker d’aujourd’hui. Menée au cœur des communautés libristes californiennnes, l’enquête de Michel Lallement dans L’âge du faire28 montre une typologie intéressante chez les hackers entre les « pur jus », parmi les plus anciens le plus souvent des hommes au charisme de leader ou de gourous et qui se réclament d’un certain radicalisme anarchiste (sur lequel je vais revenir plus loin) et la masse plus diffuse, plus ou moins concernée par l’aspect politique. Majoritaires sont cependant ceux qui ont tendance à la compromission, jusqu’au point où parfois le travail à l’intérieur de la communauté est valorisé dans l’exercice même de la réussite capitaliste à l’extérieur. J’irais même jusqu’à dire, pour en avoir côtoyé, que certains voient dans le hacking et l’éthique hacker une sorte d’exutoire de la vie professionnelle étouffée par l’économie capitaliste.

Sur l’aspect proprement américain, ce qui est surtout mis en avant, c’est l’opposition entre la bureaucratie (entendue au sens de l’action procédurière et autoritaire) et l’anarchisme. À l’image des anciennes communautés hacker calquées sur l’antique Homebrew Club, ce refus de l’autorité institutionnelle s’apparente surtout à une forme de potacherie corporatiste. Le point commun des communautés, néanmoins, consiste à s’interroger sur les process de prise de décision communautaire, en particulier la place faite au consensus : c’est l’efficacité qui est visée, c’est-à-dire la meilleure façon de donner corps à une délibération collective. C’est ce qui permet de regrouper Noisebridge, MetaLab ou le Chaos Computer Club. Certes, au point de vue du fonctionnement interne, on peut invoquer beaucoup de principes anarchistes. Une critique pointerait cependant que ces considérations restent justement internalistes. On sait que le consensus consolide le lien social, mais la technologie et les savoir-faire ont tendance à concentrer la communauté dans une sorte d’exclusion élective : diplômée, issue d’une classe sociale dominante et bourgeoise, en majorité masculine (bien que des efforts soient menés sur la question du genre).

Si nous restons sur le plan internaliste, on peut tenter de comprendre ce qu’est ce drôle d’anarchisme. Pour certains auteurs, il s’agit de se concentrer sur l’apparente opposition entre libre et open source, c’est-à-dire le rapport que les communautés hacker entretiennent avec le système économique capitaliste. On peut prendre pour repères les travaux de Christian Imhorst29 et Dale A. Bradley30. Pour suivre leur analyse il faut envisager l’anarchisme américain comme il se présentait à la fin des années 1970 et comment il a pu imprégner les hackers de l’époque. Le sous-entendu serait que cette imprégnation perdure jusqu’à aujourd’hui. Deux étapes dans la démonstration.

En premier lieu, la remise en cause de la propriété et de l’autorité est perçue comme un radicalisme beaucoup plus fortement qu’elle ne pouvait l’être en Europe au regard de l’héritage de Proudhon et de Bakhounine. Cela tient essentiellement au fait que la structuration du radicalisme américain s’est établie sur une réverbération du bipartisme américain. C’est ce qu’analyse bien en 1973 la chercheuse Marie-Christine Granjon au moment de l’éveil de la Nouvelle Gauche aux États-Unis : chasser les radicaux du paysage politique en particulier du paysage ouvrier dont on maintenait un niveau de vie (de consommation) juste assez élevé pour cela, de manière à « maintenir en place la structure monopolistique de l’économie sur laquelle repose le Welfare State — l’État des monopoles, des managers, des boss du monde syndical et de la politique —, pour protéger cette Amérique, terre de l’égalité, de la liberté et de la poursuite du bonheur, où les idéologies n’avaient plus de raison d’être, où les radicaux étaient voués à la marginalité et tolérés dans la mesure de leur inaction et de leur audience réduite »31. En d’autres termes, être radical c’est être contre l’État américain, donc soit contre le bien-être du peuple et ses libertés, soit le contraire (et chercher à le démontrer), mais en tout cas, contre l’État américain.

En second lieu, la dichotomie entre anarchisme de droite et anarchisme de gauche pourrait se résumer à la distinction entre libertariens et communautaires anticapitalistes. Ce n’est pas le cas. Mais c’est ainsi que posent les prémisses du problème C. Imhorst comme D. A. Bradley et avec eux beaucoup de ceux qui réduisent la distinction open-source / librisme. Sur ce point on reprend souvent la célèbre opposition entre les grandes figures des deux « camps », d’un côté R. M. Stallman, et de l’autre côté Eric S. Raymond, auteur de La Cathédrale et le bazar, évangéliste du marché libre ne retenant de la pensée hacker que l’efficacité de son organisation non hiérarchique. Cette lecture binaire de l’anarchisme américain, entre droite et gauche, est exprimée par David DeLeon en 1978 dans son livre The American as Anarchist32, assez critiqué pour son manque de rigueur à sa sortie, mais plusieurs fois réédité, et cité de nombreuses fois par C. Imhorst. Dans la perspective de DeLeon, l’anarchisme américain est essentiellement un radicalisme qui peut s’exprimer sur la droite de l’échiquier politique comme le libertarianisme, profondément capitaliste, individualiste-propriétariste et contre l’État, comme sur la gauche, profondément anticapitaliste, communautaire, contre la propriété et donc aussi contre l’État parce qu’il protège la propriété et reste une institution autoritaire. En écho, réduire le mouvement libriste « radical » à la figure de R. M. Stallman, et l’opposer au libertarianisme de E. S. Raymond, revient à nier toutes les nuances exprimées en quarante ans de débats et de nouveautés (prenons simplement l’exemple de l’apparition du mouvement Creative Commons).

Le but, ici, n’est pas tant de critiquer la simplicité de l’analyse, mais de remarquer une chose plus importante : si le mouvement hacker est perçu comme un radicalisme aux États-Unis dès son émergence, c’est parce qu’à cette même époque (et c’est pourquoi j’ai cité deux références de l’analyse politique des années 1970) le radicalisme est conçu hors du champ politique bipartite, contre l’État, et donc renvoyé à l’anarchisme. En retour, les caractéristiques de l’anarchisme américain offrent un choix aux hackers. Ce même choix qui est exprimé par Fred Turner dans son analyse historique : comment articuler les utopies hippies de la Nouvelle Gauche avec la technologie d’un côté, et le rendement capitaliste de l’autre. Si on est libertarien, le choix est vite effectué : l’efficacité de l’organisation anarchiste dans une communauté permet de s’affranchir de nombreux cadres vécus comme des freins à l’innovation et dans la mesure où l’individualisme peut passer pour un accomplissement de soi dans la réussite économique, la propriété n’a aucune raison d’être opposée au partage du code et ce partage n’a pas lieu de primer sur la lucrativité.

Considérer le mouvement pour le logiciel libre comme un mouvement radical est une manière d’exacerber deux positions antagonistes qui partent des mêmes principes libertaires et qui aboutissent à deux camps, les partageux qui ne font aucun compromis et les ultra-libéraux prêts à tous les compromis avec le capitalisme. On peut néanmoins suivre D. A. Bradley sur un point : le logiciel libre propose à minima la réorganisation d’une composante du capitalisme qu’est l’économie numérique. Si on conçoit que la technologie n’est autre que le support de la domination capitaliste, penser le Libre comme un radicalisme reviendrait en fait à une contradiction, celle de vouloir lutter contre les méfaits de la technologie par la technologie, une sorte de primitivisme qui s’accommoderait d’une éthique censée rendre plus supportable le techno-capitalisme. Or, les technologies ne sont pas intrinsèquement oppressives. Par exemple, les technologies de communication numérique, surtout lorsqu’elles sont libres, permettent la médiatisation sociale tout en favorisant l’appropriation collective de l’expression médiatisée. Leurs licences libres, leurs libertés d’usages, ne rendent pas ces technologies suffisantes, mais elles facilitent l’auto-gestion et l’émergence de collectifs émancipateurs : ouvrir une instance Mastodon, utiliser un système de messagerie sécurisée, relayer les informations anonymisées de camarades qui subissent l’oppression politique, etc.

L’anarchisme… productiviste, sérieusement ?

Le Libre n’est pas un existentialisme, pas plus que l’anarchisme ne devrait l’être. Il ne s’agit pas d’opposer des modes de vie où le Libre serait un retour idéaliste vers l’absence de technologie oppressive. Les technologies sont toujours les enfants du couple pouvoir-connaissance, mais comme disait Murray Bookchin, si on les confond avec le capitalisme pour en dénoncer le caractère oppresseur, cela revient à «  masquer les relations sociales spécifiques, seules à même d’expliquer pourquoi certains en viennent à exploiter d’autres ou à les dominer hiérarchiquement ». Il ajoutait, à propos de cette manière de voir : « en laissant dans l’ombre l’accumulation du capital et l’exploitation du travail, qui sont pourtant la cause tant de la croissance que des destructions environnementales, elle ne fait ainsi que leur faciliter la tâche. » 33

Le rapport entre le libre et l’anarchisme devrait donc s’envisager sur un autre plan que l’opposition interne entre capitalistes et communistes et/ou libertaires (et/ou commonists), d’autant plus que ce type de brouillage n’a jusqu’à présent fait qu’accréditer les arguments en faveur de la privatisation logicielle aux yeux de la majorité des acteurs de l’économie numérique34. Ce rapport devrait plutôt s’envisager du point de vue émancipateur ou non par rapport au capitalisme. De ce point de vue, exit les libertariens. Mais alors, comme nous avons vu que pour l’essentiel l’anarchisme libriste est un mode de production efficace dans une économie contributive (qui devrait être néanmoins plus équilibrée), a-t-il quelque chose de plus ?

Nous pouvons partir d’un autre texte célèbre chez les libristes, celui d’Eben Moglen, fondateur du Software Freedom Law Center, qui intitulait puissamment son article : « L’anarchisme triomphant : le logiciel libre et la mort du copyright »35. Selon lui, le logiciel conçu comme une propriété crée un rapport de force dont il est extrêmement difficile de sortir avec les seules bonnes intentions des licences libres. E. Moglen prend l’exemple du très long combat contre la mainmise de Microsoft sur les ordinateurs neufs grâce à la vente liée, et nous n’en sommes pas complètement sortis. Aujourd’hui, nous pourrions prendre bien d’autres exemples qui, tous, sont le fait d’alliances mondialisées et de consortiums sur-financiarisés de fabricants de matériel et de fournisseurs de services. Il faut donc opposer à cette situation une nouvelle manière d’envisager la production et la créativité.

Code source et commentaires désignent le couple entre fonctionnalité et expressivité des programmes. En tant que tels, ils peuvent être considérés comme autant de preuves que le travail intellectuel nécessaire à l’élaboration d’un programme n’est pas uniquement le fait de travailler sur des algorithmes mais aussi en inventer les propriétés. Dès lors, on peut comprendre que le copyright puisse s’appliquer à plein. Dès l’instant que les ordinateurs ont cessé d’être des machines centrales aux coûts extrêmement élevés, et que pour les faire fonctionner les logiciels ont cessé d’être donnés (car le coût marginal de la création logicielle était faible en comparaison du coût de fabrication d’une grosse machine), l’ordinateur personnel a multiplié mécaniquement le besoin de réaliser des plus-values sur le logiciel et enfermé ce dernier dans une logique de copyright. Seulement voilà : lorsqu’une entreprise (par exemple Microsoft) exerce un monopole sur le logiciel, bien qu’elle puisse embaucher des centaines de développeurs, elle ne sera jamais en mesure d’adapter, tester à grande échelle, proposer des variations de son logiciel en quantités suffisantes pour qu’il puisse correspondre aux besoins qui, eux, ont tendance à se multiplier au fur et à mesure que les ordinateurs pénètrent dans les pratiques sociales et que la société devient un maillage en réseau. Si bien que la qualité et la flexibilité des logiciels privateurs n’est jamais au rendez-vous. Si ce défaut de qualité passe souvent inaperçu, c’est aux yeux de l’immense majorité des utilisateurs qui ne sont pas techniciens, et pour lesquels les monopoles créent des cages d’assistanat et les empêche (par la technique du FUD) d’y regarder de plus près. Après tout, chacun peut se contenter du produit et laisser de côté des défauts dont il peut toujours (essayer de) s’accommoder.

En somme, les utilisateurs ont été sciemment écartés du processus de production logicielle. Alors qu’à l’époque plus ancienne des gros ordinateurs, on adaptait les logiciels aux besoins et usages, et on pouvait les échanger et les améliorer en partant de leur utilisation. Or, l’histoire des sciences et des technologies nous apprend que l’avancement des sciences et technologies dépendent d’apprentissages par la pratique, d’appropriations collectives de l’existant, d’innovation par incrémentation et implications communautaires (c’est ce qu’ont montré David Edgerton36 et Clifford Conner37). En ce sens, le modèle économique des monopoles du logiciel marche contre l’histoire.

 

mème en deux images. dans la première, le logiciel libre tend les bras vers l'autogestion des communs, dans la deuxième qui dézoome la première, on voit qu'un gros personnage "les géants du web" retient fermement le logiciel libre qui ne peut atteindre l'autogestion des communs

C’est de ce point de vue que le logiciel libre peut être envisagé non seulement comme la production d’un mouvement de résistance38, mais aussi comme un mode de production conçu avant tout comme une réaction à la logique marchande, devant lutter sans cesse contre la « plasticité du capitalisme » (au sens de F. Braudel39), avec des résultats plus ou moins tangibles. Même si la question de l’écriture collective du code source mériterait d’être mieux analysée pour ses valeurs performatives intrinsèques40.

Comme le dit Eben Moglen racontant le projet GNU de R. M. Stallman : le logiciel libre pouvait « devenir un projet auto-organisé, dans lequel aucune innovation ne serait perdue à travers l’exercice des droits de propriété ». Depuis le milieu des années 1980 jusqu’à la fin des années 1990, non seulement des logiciels ont été produits de manière collective en dehors du copyright, mais en plus de cela, des systèmes d’exploitation comme GNU Linux aux logiciels de serveurs et à la bureautique, leur reconnaissance par l’industrie elle-même (normes et standards) s’est imposée à une échelle si vaste que le logiciel libre a bel et bien gagné la course dans un monde où la concurrence était faussée si l’on jouait avec les mêmes cartes du copyright.

C’est ce qui fait dire à Eben Moglen que « lorsqu’il est question de faire de bons logiciels, l’anarchisme gagne ». Il oppose deux choses à l’industrie copyrightée du logiciel :

  • les faits : le logiciel libre est partout, il n’est pas une utopie,
  • le mode de production : l’anarchisme est selon lui la meilleure « organisation » de la production.

Reste à voir comment il conçoit l’anarchisme. Il faut confronter ici deux pensées qui sont contemporaines, celle d’Eben Moglen et celle de Murray Bookchin. Le second écrit en 1995 que le mot « anarchisme » allait bientôt être employé comme catégorie d’action bourgeoise41 :

«  les objectifs révolutionnaires et sociaux de l’anarchisme souffrent d’une telle dégradation que le mot « anarchie » fera bientôt partie intégrante du vocabulaire chic bourgeois du siècle à venir : une chose quelque peu polissonne, rebelle, insouciante, mais délicieusement inoffensive ».

Bookchin écrivait aussi « Ainsi, chez nombre d’anarchistes autoproclamés, le capitalisme disparaît, remplacé par une « société industrielle » abstraite. »

Mais d’un autre côté, à peine six ans plus tard, il y a cette volonté d’E. Moglen d’utiliser ce mot et d’entrer en confrontation assez directe avec ce que M. Bookchin disait de la tendance new age férue d’individualisme et de primitivisme et qui n’avait plus de rien de socialiste. En fin de compte, si on conçoit avec E. Moglen l’anarchisme comme un mode de production du logiciel libre, alors on fait aussi une jonction entre la lutte contre le modèle du monopole et du copyright et la volonté de produire des biens numériques, à commencer par des logiciels, tout en changeant assez radicalement l’organisation sociale de la production contre une machinerie industrielle. Et cette lutte n’a alors plus rien d’abstrait. La critique de M. Bookchin, était motivée par le fait que l’anarchisme s’est transformé des années 1970 aux années 1990 et a fini par dévoyer complètement les théories classiques de l’anarchisme au profit d’une culture individualiste et d’un accomplissement de soi exclusif. Le logiciel libre, de ce point de vue, pourrait avoir le mérite de resituer l’action anarchiste dans un contexte industriel (la production de logiciels) et social (les équilibres de conception et d’usage entre utilisateurs et concepteurs).

Et l’État dans tout cela ? est-il évacué de l’équation ? Ces dernières décennies sont teintées d’un néolibéralisme qui façonne les institutions et le droit de manière à créer un espace marchand où les êtres humains sont transformés en agents compétitifs. La production communautaire de logiciel libre ne serait-elle qu’un enfermement dans une plasticité capitaliste telle qu’elle intègre elle-même le mode de production anarchiste du libre dans une compétition dont le grand gagnant est toujours celui qui réussit à piller le mieux les communs ainsi produits ? Car si c’est le cas, alors M. Bookchin avait en partie raison : l’anarchisme n’a jamais pu résoudre la tension entre autonomie individuelle et liberté sociale autrement qu’en se contentant de s’opposer à l’autorité et à l’État, ce qu’on retrouve dans la reductio de l’anarchisme des libertariens – et contre cela M. Bookchin propose un tout autre programme, municipaliste et environnementaliste. Or, si on suit E. Moglen, on ne perçoit certes pas d’opposition frontale contre l’État, mais dans un contexte néolibéral, les monopoles industriels ne peuvent-ils pas être considérés comme les nouvelles figures d’opposition d’autorité et de pouvoir ?

Pour ma part, je pense que qu’État et monopoles se contractent dans le capitalisme de surveillance, un Léviathan contre lequel il faut se confronter. Toute la question est de savoir à quelle société libertaire est censé nous mener le logiciel libre. J’ai bien l’impression que sur ce point les libristes old school qui s’autoproclament anarchistes se trompent : ce n’est pas parce que le mouvement du logiciel libre propose une auto-organisation de la production logicielle et culturelle, contre les monopoles mais avec une simple injonction à l’émancipation, que cela peut déboucher sur un ordre social libertaire.

Là où le logiciel libre pourrait se réclamer de l’anarchisme, c’est dans le fait qu’il propose une très forte opposition aux institutions sociales oppressives que sont les monopoles et l’État, mais seulement à partir du moment où on conçoit le mouvement du logiciel libre non comme un mode de production anarchiste, mais comme un moment qui préfigure42 un ordre social parce qu’il s’engage dans une lutte contre l’oppression tout en mettant en œuvre un mode de production alternatif, et qu’il constitue un modèle qui peut s’étendre à d’autres domaines d’activité (prenons l’exemple des semences paysannes). Et par conséquent il devient un modèle anarchiste.

Si on se contente de n’y voir qu’un mode de production, le soi-disant anarchisme du logiciel libre est voué à n’être qu’un modèle bourgeois (pour reprendre l’idée de M. Bookchin), c’est à dire dénué de projet de lutte sociale, et qui se contente d’améliorer le modèle économique capitaliste qui accapare les communs : il devient l’un des rouages de l’oppression, il n’est conçu que comme une utopie « bourgeoisement acceptable ». C’est-à-dire un statut duquel on ne sort pas ou bien les pieds devant, comme un mode de production que le néomanagement a bel et bien intégré. Or, s’il y a une lutte anarchiste à concevoir aujourd’hui, elle ne peut pas se contenter d’opposer un modèle de production à un autre, elle doit se confronter de manière globale au capitalisme, son mode de production mais aussi son mode d’exploitation sociale.

Les limites de l’anarchisme utopique du Libre ont été révélées depuis un moment déjà. L’Electronic Frontier Foundation (où Eben Moglen officie) le reconnaît implicitement dans un article de mai 2023 écrit par Cory Doctorow et publié par l’EFF 43 :

« Alors que les régulateurs et les législateurs réfléchissent à l’amélioration de l’internet pour les êtres humains, leur priorité absolue devrait être de redonner du pouvoir aux utilisateurs. La promesse d’Internet était de supprimer les barrières qui se dressaient sur notre chemin : la distance, bien sûr, mais aussi les barrières érigées par les grandes entreprises et les États oppressifs. Mais les entreprises ont pris pied dans cet environnement de barrières abaissées, se sont retournées et ont érigé de nouvelles barrières de leur côté. Des milliards d’entre nous se sont ainsi retrouvés piégés sur des plateformes que beaucoup d’entre nous n’aiment pas, mais qu’ils ne peuvent pas quitter. »

Il faut donc des alternatives parce que les acteurs qui avaient promis de rendre les réseaux plus ouverts (le Don’t be evil de Google) ont non seulement failli mais, en plus, déploient des stratégies juridiques et commerciales perverses pour coincer les utilisateurs sur leurs plateformes. Dès lors, on voit bien que le problème qui se pose n’est pas d’opposer un mode de production à un autre, mais de tenter de gagner les libertés que le capitalisme de surveillance contient et contraint. On voit aussi que depuis 2001, les problématiques se concentrent surtout sur les réseaux et le pouvoir des monopoles. Là, on commence à toucher sérieusement les questions anarchistes. Dès lors l’EFF propose deux principes pour re-créer un Internet « d’intérêt public » :

  • le chiffrement de bout en bout et la neutralité du Net,
  • contourner les grandes plateformes.

Faut-il pour autant, comme le propose Kristin Ross44, pratiquer une sorte d’évacuation générale et se replier, certes de manière constructive, sur des objets de lutte plus fondamentaux, au risque de ne concevoir de lutte pertinente que des luttes exclusives, presque limitées à la paysannerie et l’économie de subsistance ? Je ne suis pas d’accord. Oui, il faut composer avec l’existant mais dans les zones urbaines, les zones rurales comme dans le cyberespace on peut préfigurer des formes d’organisation autonomes et des espaces à défendre. Le repli individualiste ou collectiviste-exclusif n’est pas une posture anarchiste. Premièrement parce qu’elle n’agit pas concrètement pour les travailleurs, deuxièmement parce que cela revient à abandonner ceux qui ne peuvent pas pratiquer ce repli de subsistance au risque de ce qu’on reprochait déjà aux petits-bourgeois communautaires hippies des années 1970, et troisièmement enfin, parce que je ne souhaite pas vivre dans une économie de subsistance, je veux vivre dans l’abondance culturelle, scientifique et même technique et donc lutter pour un nouvel ordre social égalitaire général et pas réservé à ceux qui feraient un choix de retrait, individuel et (il faut le reconnaître) parfois courageux.

Alors, vers quel anarchisme se diriger ?

Le potentiel libertaire de la technologie

En 1971, Sam Dolgoff publie un article sans concession dans la petite revue Newyorkaise Libertarian Analysis. L’article fut ensuite tiré à part à plusieurs reprises si bien que, sous le titre The Relevance of Anarchism to Modern Society45, le texte figure parmi les must read de la fin des années 1970. Dolgoff y décrit l’état de l’anarchisme dans une société prise dans les contradictions de la contre-culture des années 1960, et dont les effets se rapportent à autant de conceptions erronées de l’anarchisme qui se cristallisent dans un « néo-anarchisme » bourgeois discutable. Ce contre quoi S. Dolgoff avance ses arguments est l’idée selon laquelle l’anarchisme « filière historique » serait dépassé étant donné la tendance mondiale vers la centralisation économique, fruit des récents développements des sciences et des techniques, une sorte de fin de l’histoire (avant l’heure de celle de Fukuyama en 1992) contre laquelle on ne pourrait rien. Le sous-entendu met en avant la contradiction entre le positivisme dont s’inspire pourtant l’anarchisme de Proudhon à Bakounine, c’est-à-dire le développement en soi émancipateur des sciences et des techniques (à condition d’une éducation populaire), et le fait que cet élan positiviste a produit une mondialisation capitaliste contre laquelle aucune alternative anarchiste n’a pu s’imposer. Le réflexe social qu’on retrouve dans le mouvement contre-culturel des années 1960 et 1970, associé à ce que S. Dolgoff nomme le néo-anarchisme (bourgeois)46 (et qui sera repris en partie par M. Bookchin plus tard), amène à penser l’anarchisme comme une réaction à cette contradiction et par conséquent un moment de critique de l’anarchisme classique qui n’envisagerait pas correctement la complexité sociale, c’est-à-dire la grande diversité des nuances entre compromission et radicalisme, dans les rapports modernes entre économie, sciences, technologies et société. Ce qui donne finalement un anarchisme réactionnaire en lieu et place d’un anarchisme constructif, c’est-à-dire une auto-organisation fédéraliste qui accepte ces nuances, en particulier lors de l’avènement d’une société des médias, du numérique et de leur mondialisation (en plus des inégalités entre les pays).

Or, S. Dolgoff oppose à cette idée pessimiste le fait que la pensée anarchiste a au contraire toujours pris en compte cette complexité. Cela revient à ne justement pas penser l’anarchisme comme une série d’alternatives simplistes au gouvernementalisme (le contrôle de la majorité par quelques-uns). Il ne suffit pas de s’opposer au gouvernementalisme pour être anarchiste. Et c’est pourtant ce que les libertariens vont finir par faire, de manière absurde. L’anarchisme, au contraire a toujours pris en compte le fait qu’une société anarchiste implique une adaptation des relations toujours changeantes entre une société et son environnement pour créer une dynamique qui recherche équilibre et harmonie indépendamment de tout autoritarisme. Dès lors les sciences et techniques ont toujours été des alliées possibles. Pour preuve, cybernétique et anarchisme ont toujours fait bon ménage, comme le montre T. Swann dans un article au sujet de Stafford Beer, le concepteur du projet Cybersyn au Chili sous la présidence S. Allende47 : un mécanisme de contrôle qui serait extérieur à la société implique l’autoritarisme et un contrôle toujours plus contraignant, alors qu’un mécanisme inclus dans un système auto-organisé implique une adaptation optimale au changement48. L’optimisation sociale implique la décentralisation, c’est ce qu’ont toujours pensé les anarchistes. En ce sens, les outils numériques sont des alliés possibles.

En 1986, quinze ans après son article de 1971, dans le premier numéro de la revue qu’il participe à fonder (la Libertarian Labor Review), S. Dolgoff publie un court article intitulé « Modern Technology and Anarchism »49. Il revient sur la question du lien entre l’anarchisme et les nouvelles technologies de communication et d’information qu’il a vu naître et s’imposer dans le mouvement d’automatisation de l’industrie et plus généralement dans la société. Les réseaux sont pour lui comme un pharmakon (au sens de B. Stiegler), ils organisent une dépossession par certains aspects mais en même temps peuvent être des instruments d’émancipation.

Cet article de 1986 est quelque peu redondant avec celui de 1971. On y retrouve d’ailleurs à certains endroits les mêmes phrases et les mêmes idées. Pour les principales : il y a un déjà-là anarchiste, et la société est un réseau cohérent de travail coopératif. Pour S. Dolgoff, la technologie moderne a résolu le problème de l’accès aux avantages de l’industrie moderne, mais ce faisant elle a aussi accru significativement la décentralisation dans les entreprises avec la multiplication de travailleurs hautement qualifiés capables de prendre des décisions aux bas niveaux des organisations. S. Dolgoff cite plusieurs auteurs qui ont fait ce constat. Ce dernier est certes largement terni par le fait que cette décentralisation fait écho à la mondialisation qui a transformé les anciennes villes industrielles en villes fantômes, mais cette mondialisation est aussi un moment que l’anarchie ne peut pas ne pas saisir. En effet, cette mise en réseau du monde est aussi une mise en réseau des personnes. Si les technologies modernes d’information, les ordinateurs et les réseaux, permettent d’éliminer la bureaucratie et abandonner une fois pour toutes la centralisation des décisions, alors les principes de coopération et du déjà-là anarchiste pourront se déployer. Faire circuler librement l’information est pour S. Dolgoff la condition nécessaire pour déployer tout le « potentiel libertaire de la technologie ». Mais là où il pouvait se montrer naïf quinze ans auparavant, il concède que les obstacles sont de taille et sont formés par :

« Une classe croissante de bureaucraties étatiques, locales, provinciales et nationales, de scientifiques, d’ingénieurs, de techniciens et d’autres professions, qui jouissent tous d’un niveau de vie bien supérieur à celui du travailleur moyen. Une classe dont le statut privilégié dépend de l’acceptation et du soutien du système social réactionnaire, qui renforce considérablement les variétés « démocratiques », « sociales » et « socialistes » du capitalisme. (…) Tous reprennent les slogans de l’autogestion et de la libre association, mais ils n’osent pas lever un doigt accusateur sur l’arc sacré de l’État. Ils ne montrent pas le moindre signe de compréhension du fait évident que l’élimination de l’abîme séparant les donneurs d’ordres des preneurs d’ordres – non seulement dans l’État mais à tous les niveaux – est la condition indispensable à la réalisation de l’autogestion et de la libre association : le cœur et l’âme même de la société libre. »

Peu d’années avant son décès, et après une longue carrière qui lui avait permis de prendre la mesure de l’automatisation de l’industrie et voir l’arrivée des ordinateurs dans les processus de production et de contrôle, Sam Dolgoff a bien saisi la contradiction entre le « potentiel libertaire de la technologie » et l’apparition d’une classe sociale qui, avec l’aide de l’État et forte de subventions, réussit le tour de force d’accaparer justement ce potentiel dans une démarche capitaliste tout en parant des meilleures intentions et des meilleurs slogans ce hold-hup sur le travail collectif et la coopération.

C’est pourquoi il est pertinent de parler d’idéologie concernant la Silicon Valley, et c’est d’ailleurs ce que Fred Turner avait bien vu50 :

« La promesse utopique de la Valley est la suivante : Venez ici, et construisez-y l’avenir avec d’autres individus partageant les mêmes idées. Immergez-vous dans le projet et ressortez-en en ayant sauvé l’avenir. »

Les nouvelles frontières sociales des utopistes de la Silicon Valley ont été une interprétation du potentiel libertaire de la technologie, faite de néo-communautarisme et de cette Nouvelle Gauche que S. Dolgoff critiquait dès 1971. Mais ces nouvelles frontières ont été transformées en mythe parce que la question est de savoir aujourd’hui qui décide de ces nouvelles frontières, qui décide de consommer les technologies de communication censées permettre à tous d’avoir accès à l’innovation. Qui décide qu’un téléphone à plus de 1000€ est la meilleure chose à avoir sur soi pour une meilleure intégration sociale ? Qui décide que la nouvelle frontière repose sur la circulation de berlines sur batteries en employant une main-d’œuvre bon marché ?

Ouvrir le Libre

Il est temps de réhabiliter la pensée de Sam Dolgoff. Le Libre n’est pas qu’un mode de production anarchiste, il peut être considéré comme un instrument de libération du potentiel libertaire de la technologie.

Scander haut et fort que les hackers sont des anarchistes ne veut rien dire, tant que le modèle organisationnel et économique ne sert pas à autre chose que de développer du code. Rester dans le positivisme hérité des anarchistes de la première moitié du XXe siècle a ce double effet : un sentiment de dépassement lorsqu’on considère combien le « progrès » technologique sert à nous oppresser, et un sentiment d’abandon parce que celleux qui sont en mesure de proposer des alternatives techniques d’émancipation ont tendance à le faire en vase clos et reproduisent, souvent inconsciemment, une forme de domination.

Ce double sentiment a des conséquences qui dépassent largement la question des logiciels. Il est toujours associé à la tendance toujours plus grande de l’État à accroître les inégalités sociales, associé aux conséquences climatiques du système économique dominant qui nous conduit au désastre écologique, associé à la répression toujours plus forte par l’autoritarisme des gouvernements qui défendent les intérêts des plus riches contre les travailleurs et contre tout le reste. Il en résulte alors un désarmement technologique des individus là où il faut se défendre. À défaut, les solutions envisagées ont toujours petit goût pathétique : des plaidoyers qui ne sont jamais écoutés et trouvent encore moins d’écho dans la représentation élective, ou des actions pacifiques réprimées dans la violence.

les quatre vieux dans un salon doré, plus ou moins grimés. L'un dit : "bon, à partir de là, tâchez d'avoir l'air con comme des bourgeois, il s'agit de pas se faire repérer"
Les Vieux Fourneaux, Lupanu et Cauuet, extrait de la BD

 

Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives.

Occupy Wall Street, Nuit Debout, et bien d’autres évènements du genre, ont été qualifiés de préfiguratifs parce qu’ils opposaient de nouveaux imaginaires et de nouvelles manières de penser le monde tout en mettant en pratique les concepts mêmes qu’ils proposaient. Mais ce spontanéisme a tendance à se montrer évanescent face à des concrétisations préfiguratives comme les ZAD, la Comuna de Oaxaca, le mouvement zapatiste, et des milliers d’autres concrétisations à travers le monde et dont la liste serait fastidieuse. Rien qu’en matière d’autogestion, il suffit de jeter un œil sur les 11 tomes (!) de l’encyclopédie de l’Association Autogestion (2019)51. Or, dans tous ces mouvements, on retrouve du logiciel libre, on retrouve des libristes, on retrouve des pratiques libristes. Et ce n’est que très rarement identifié et formalisé.

Que faire ? Peut-être commencer par s’accorder sur quelques points, surtout entre communautés libristes et communautés libertaires :

  1. Ce n’est pas parce qu’on est libriste qu’on est anarchiste, et l’éthique hacker n’est pas un marqueur d’anarchisme. De manière générale, mieux vaut se méfier de l’autoproclamation dans ce domaine, surtout si, en pratique, il s’agit de légitimer le pillage des communs. Par contre il y a beaucoup d’anarchistes libristes.
  2. Les pratiques anarchistes n’impliquent pas obligatoirement l’utilisation et/ou la création de logiciels libres ou d’autres productions libres des communs numériques. Le Libre n’a pas à s’imposer. Mais dans notre monde de communication, le Libre en tant qu’outil est un puissant moteur libertaire. Il permet aux libertaires de mettre en œuvre des actions de communication, de coopération et de stratégie.
  3. Proposer le logiciel libre ou les licences libres n’est pas un acte altruiste ni solidaire s’il n’est pas accompagné de discours ou d’actes émancipateurs. Il peut même créer l’inverse par excès, submersion de connaissances et finalement exclusion. Il faut travailler de plus en plus les conditions d’adoption de solutions techniques libres dans les collectifs, mieux partager les expériences, favoriser l’inclusion dans la décision d’adoption de telles ou telles techniques. Elles doivent apporter du sens à l’action (et nous revoici dans la réflexion déjà ancienne du rapport entre travailleurs et machines).
  4. Il vaut mieux privilégier l’émancipation non-numérique à la noyade techno-solutionniste qui résulte d’un manque de compétences et de connaissances.
  5. La solidarité doit être le pilier d’une éducation populaire au numérique. Cela ne concerne pas uniquement l’anarchisme. Mais un collectif ne peut pas seul effectuer une démarche critique sur ses usages numériques s’il n’a pas en même temps les moyens de les changer efficacement. Les collectifs doivent donc échanger et s’entraider sur ces points (combien de groupes anarchistes utilisent Facebook / Whatsapp pour s’organiser ? ce n’est pas par plaisir, sûr !).

Notes


  1. La Quadrature du Net, « Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste », 5 juin 2023, URL.↩︎
  2. On peut prendre un exemple trivial, celui du microblogage qui transforme la communication en flux d’information. Le fait de ne pouvoir s’exprimer qu’avec un nombre limité de caractère et de considérer l’outil comme le support d’un réseau social (où le dialogue est primordial), fait que les idées et les concepts ne peuvent que rarement être développés et discutés, ce qui transforme l’outil en support de partage d’opinions non développées, raccourcies, caricaturales. Ajoutons à cela le fait que, sur un système de microblogage commercial, les algorithmes visant à générer de la lucrativité attentionnelle, ce sont les contenus les poins pertinents pour la pensée et les plus pertinents pour le trafic qui sont mis en avant. Contrairement à ce qu’annoncent les plateformes commerciales de microblogage, ce dernier ne constitue absolument pas un support d’expression libre, au contraire il réduit la pensée à l’opinion (ou ne sert que de support d’annonces diverses). Un autre exemple concerne la « rédaction web » : avec la multiplication des sites d’information, la manière d’écrire un article pour le web est indissociable de l’optimisation du référencement. Le résultat est que depuis les années 2000 les contenus sont tous plus ou moins calibrés de manière identique et les outils rédactionnels sont configurés pour cela.↩︎
  3. Lawrence Lessig, « Code is Law – On Liberty in Cyberspace », Harvard Magazine, janvier 2000. Trad. Fr sur Framablog.org, 22 mai 2010.↩︎
  4. Aliénation de tout le monde en fait. « L’aliénation apparaît au moment où le travailleur n’est plus propriétaire de ses moyens de production, mais elle n’apparaît pas seulement à cause de cette rupture du lien de propriété. Elle apparaît aussi en dehors de tout rapport collectif aux moyens de production, au niveau proprement individuel, physiologique et psychologique (…) Nous voulons dire par là qu’il n’est pas besoin de supposer une dialectique du maître et de l’esclave pour rendre compte de l’existence d’une aliénation dans les classes possédantes ». G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 118.↩︎
  5. Steven Levy, Hackers. Heroes of the Computer Revolution, New York, Dell Publishing, 1994. Steven Lévy, L’éthique des hackers, Paris, Globe, 2013.↩︎
  6. Ainsi on peut s’interroger sur la tendance du protocole ouvert ActivityPub (qui fait fonctionner Mastodon, par exemple) à couvrir de nombreuses applications du Fediverse sans qu’une discussion n’ait été réellement menée entre les collectifs sur une stratégie commune multiformats dans le Fediverse. Cela crée une brèche récemment exploitée par l’intention de Meta de vouloir intégrer le Fediverse avec Threads, au risque d’une stratégie de contention progressive des utilisateurs qui mettrait en danger l’utilisation même d’ActivityPub et par extension l’ensemble du Fediverse. On peut lire à ce sujet la tribune de La Quadrature du Net : « L’arrivée de Meta sur le Fédivers est-elle une bonne nouvelle ? », 09 août 2023, URL.↩︎
  7. Sébastien Broca, Utopie du logiciel libre. Lyon, Éditions le Passager clandestin, 2018.↩︎
  8. Fred Turner, Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence, Caen, C&F Editions, 2012.↩︎
  9. Christophe Masutti, « Lire Fred Turner : de l’usage de l’histoire pour préfigurer demain », dans Retour d’Utopie. De l’influence du livre de Fred Turner, Caen, Les cahiers de C&F éditions 6, juin 2023, p. 70-82.↩︎
  10. Detlef Hartmann, Die Alternative: Leben als Sabotage – zur Krise der technologischen Gewalt, Tübingen: IVA-Verlag, 1981. Voir aussi Capulcu Kollektiv, DISRUPT ! – Widerstand gegen den technologischen Angriff, sept. 2017 (URL).↩︎
  11. Alan F. Westin, Privacy and Freedom, New York, Atheneum, 1967.↩︎
  12. C’est le ralliement des mouvements pour les droits et libertés individuels, le lien entre l’expérience personnelle (par exemple les inégalités de race ou de genre dont des individus pourraient faire l’expérience quotidienne) et les structures politiques et sociales qui sont à la source des problèmes et dont il fallait procéder à la remise en question.↩︎
  13. Nadia Eghbal, Sur quoi reposent nos infrastructures numériques ? : Le travail invisible des faiseurs du web. Marseille, OpenEdition Press, 2017. https://doi.org/10.4000/books.oep.1797.↩︎
  14. Dans le cas de communs numériques, qui sont des biens non rivaux, il peut être difficile de comprendre cette notion d’appauvrissement. Comme le montrent Pierre Dardot et Christian Laval dans leur livre Communs, pour un commun, la richesse dépend autant du processus contributif (l’activité collective qui consiste à en faire un commun) que du bien lui-même, même s’il peut être dupliqué à l’infini dans le cas des biens non rivaux. Prenons deux exemples : 1) pour un champ cultivé, si tout le monde se sert et en abuse et personne ne sème ni n’entretient et qu’il n’y a pas d’organisation collective pour coordonner les efforts et décider ensemble que faire du champ, ce dernier reste bien un commun mais il ne donne rien et va disparaître. 2) Pour un logiciel, si personne ne propose de mise à jour, si personne n’enrichit ou corrige régulièrement le code et s’il n’y a pas d’organisation des contributions, ce logiciel aura tendance à disparaître aussi. Voir Pierre Dardot et Christian Laval, Communs. Essai sur la révolution au XXIe siècle, Paris, La Découverte, 2014.↩︎
  15. Pierre Crétois (dir.), L’accaparement des biens communs, Paris, Presses universitaires de Paris Nanterre, 2022.↩︎
  16. On peut voir sur ce point le travail que réalise Laurent Marseault : https://cocotier.xyz/?ConfPompier.↩︎
  17. Au sens où l’entendait Bernard Stiegler, c’est-à-dire la privation d’un sujet de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser). Voir Bernard Stiegler, États de choc: bêtise et savoir au XXIe siècle, Paris, France, Mille et une nuits, 2012.↩︎
  18. On peut voir les statistiques sur l’Open Source Contributor Index : https://opensourceindex.io/.↩︎
  19. Simon Butler et al., « On Company Contributions to Community Open Source Software Projects », IEEE Transactions on Software Engineering, 47-7, 2021, p. 1381‑1401.↩︎
  20. Antonio A. Casilli, En attendant les robots: enquête sur le travail du clic, Paris, France, Éditions du Seuil, 2019.↩︎
  21. Et ils sont souvent les dindons de la farce. En Europe, la situation est équivoque. D’un côté, un espace est ouvert grâce aux dispositifs juridiques censés protéger l’économie européenne et les européens contre les effets des multinationales à l’encontre de la vie privée, au nom de la défense des consommateurs, et en faveur de la souveraineté numérique. Les logiciels libres y trouvent quelques débouchés pertinents auprès du public et des petites structures. Mais d’un autre côté, une grande part de la production libre et open source repose sur des individus et des petites entreprises, alors même que les gouvernements (et c’est particulièrement le cas en France) leur créent des conditions d’accès au marché très défavorables et privilégient les monopoles extra-européens par des jeux de partenariats entre ces derniers et les intégrateurs, largement subventionnés. Voir Jean-Paul Smets, « Confiance numérique ou autonomie, il faut choisir », in Annales des Mines, 23, La souveraineté numérique : dix ans de débat, et après ?, Paris, 2023., p. 30-38.↩︎
  22. Même si le protocole ActivityPub pourrait être suffisamment détourné ou influencé pour ne plus assurer l’interopérabilité nécessaire. La communauté du Fediverse doit pour cela s’opposer en masse à Thread, la solution que commence à imposer l’entreprise Meta (Facebook), dans l’optique de combler le manque à gagner que représente le Fediverse par rapport aux média sociaux privateurs.↩︎
  23. Christophe Masutti, « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 », Zilsel, 9-2, 2021, p. 29‑70.↩︎
  24. On peut se reporter à cette louable tentative issue de It’s Going Down, et que nous avons publiée sur le Framablog. Il s’agit d’un livret d’auto-défense en communication numérique pour les groupes anarchistes. Bien qu’offrant un panorama complet et efficace des modes de communications et rappelant le principe de base qui consiste en fait à les éviter pour privilégier les rencontres physiques, on voit tout de même qu’elle souffre d’un certain manque de clairvoyance sur les points d’achoppement techniques et complexes qu’il serait justement profitable de partager. Voir « Infrastructures numériques de communication pour les anarchistes (et tous les autres…) », Framablog, 14 avril 2023.↩︎
  25. Philippe Borrel, La bataille du Libre (documentaire), prod. Temps Noir, 2019, URL.↩︎
  26. Sam Williams, Richard Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, 1re éd., Eyrolles, 2010.↩︎
  27. Richard Stallman (interview), « Is Free Software Anarchist? », vidéo sur Youtube.↩︎
  28. Michel Lallement, L’âge du faire: hacking, travail, anarchie, Paris, France, Éditions Points, 2018.↩︎
  29. Christian Imhorst, Die Anarchie der Hacker, Marburg, Tectum – Der Wissenschaftsverlag, 2011. Christian Imhorst, « Anarchie und Quellcode – Was hat die freie Software-Bewegung mit Anarchismus zu tun? », in Open Source Jahrbuch 2005, Berlin, 2005.↩︎
  30. Dale A. Bradley, « The Divergent Anarcho-utopian Discourses of the Open Source Software Movement », Canadian Journal of Communication, 30-4, 2006, p. 585‑612.↩︎
  31. Marie-Christine Granjon, « Les radicaux américains et le «système» », Raison présente, 28-1, 1973, p. 93‑112.↩︎
  32. David DeLeon, The American as Anarchist: Reflections on Indigenous Radicalism, Baltimore, Johns Hopkins University Press, 2019.↩︎
  33. Murray Bookchin, Changer sa vie sans changer le monde. L’anarchisme contemporain entre émancipation individuelle et révolution sociale, Marseille, Agone, 2019, pp. 61-63.↩︎
  34. En 2015, c’est ce qui a permis à Bill Gates de caricaturer, sans les citer, des personnes comme Joseph Stiglitz et d’autres partisans pour une réforme des brevets (pas seulement logiciels) en sortes de néocommunistes qui avanceraient masqués. Voir cet entretien, cet article de Libération, et cette « réponse » de R. M. Stallman.↩︎
  35. Eben Moglen, « L’anarchisme triomphant. Le logiciel libre et la mort du copyright », Multitudes, 5-2, 2001, p. 146‑183.↩︎
  36. David Edgerton, « De l’innovation aux usages. Dix thèses éclectiques sur l’histoire des techniques », Annales. Histoire, sciences sociales, 53-4, 1998, p. 815‑837.↩︎
  37. Clifford D. Conner, Histoire populaire des sciences, Montreuil, France, Éditions L’Échappée, 2011.↩︎
  38. Amaelle Guiton, Hackers: au cœur de la résistance numérique, Vauvert, France, Au diable Vauvert, 2013.↩︎
  39. « Le capitalisme est d’essence conjoncturelle. Aujourd’hui encore, une de ses grandes forces est sa facilité d’adaptation et de reconversion », Fernand Braudel, La dynamique du capitalisme, Paris, Flammarion, 2018.↩︎
  40. Stéphane Couture, « L’écriture collective du code source informatique. Le cas du commit comme acte d’écriture », Revue d’anthropologie des connaissances, 6, 1-1, 2012, p. 21‑42.↩︎
  41. Murray Bookchin, Changer sa vie sans changer le monde, op. cit., p. 12 et p. 10.↩︎
  42. Comme je l’ai écrit dans un précédent billet de blog, plusieurs auteurs donnent des définitions du concept de préfiguration. À commencer par David Graeber, pour qui la préfiguration est « l’idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Un peu plus de précision selon Darcy Leach pour qui la préfigurativité est « fondée sur la prémisse selon laquelle les fins qu’un mouvement social vise sont fondamentalement constituées par les moyens qu’il emploie, et que les mouvements doivent par conséquent faire de leur mieux pour incarner – ou “préfigurer” – le type de société qu’ils veulent voir advenir. ». David Graeber, Comme si nous étions déjà libres, Montréal, Canada, Lux éditeur, 2014. Darcy K. Leach, « Prefigurative Politics », in The Wiley-Blackwell Encyclopedia of Social and Political Movements, John Wiley & Sons, Ltd, 2013.↩︎
  43. Cory Doctorow, « As Platforms Decay, Let’s Put Users First », 09 mai 2023, URL.↩︎
  44. Kristin Ross, La forme-Commune. La lutte comme manière d’habiter, Paris, La Fabrique Editions, 2023.↩︎
  45. Sam Dolgoff, The relevance of anarchism to modern society, Troisième édition., Tucson, AZ, See Sharp Press, 2001.↩︎
  46. Sam Dolgoff, « Le Néo-anarchisme américain. Nouvelle gauche et gauche traditionnelle », Le Mouvement social, num. 83, 1973, p. 181‑99. « (…) intellectuels petits-bourgeois, des étudiants et des « hippies » qui constituaient l’essentiel de la nouvelle gauche ».↩︎
  47. Thomas Swann, « Towards an anarchist cybernetics: Stafford Beer, self-organisation and radical social movements | Ephemeral Journal », Ephemera. Theory and politics in organization, 18-3, 2018, p. 427‑456.↩︎
  48. En théorie du moins. Si on regarde de plus près l’histoire du projet Cybersyn, c’est par la force des choses que le système a aussi été utilisé comme un outil de contrôle, en particulier lorsque les tensions existaient entre les difficultés d’investissement locales et les rendements attendus au niveau national. En d’autres termes, il fallait aussi surveiller et contrôler les remontées des données, lorsqu’elles n’étaient pas en phase avec la planification. Cet aspect technocratique a vite édulcoré l’idée de la prise de décision collective locale et de la participation socialiste, et a fini par classer Cybersyn au rang des systèmes de surveillance. Hermann Schwember, qui était l’un des acteurs du projet est revenu sur ces questions l’année du coup d’État de Pinochet et peu de temps après. Hermann Schwember, « Convivialité et socialisme », Esprit, juil. 1973, vol. 426, p. 39-66. Hermann Schwember, « Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973 », In : Hartmut Bossel (dir.), Concepts and Tools of Computer Based Policy Analysis, Basel, Birkhäuser – Springer Basel AG, 1977, vol.1, p. 79-138. Pour une histoire complète, voir Eden Medina, Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, Boston, MIT Press, 2011. Et une section de mon ouvrage Christophe Masutti, Affaires privées. Aux sources du capitalisme de surveillance, Caen, C&F Éditions, 2020.↩︎
  49. Sam Dolgoff, « Modern Technology and Anarchism », Libertarian Labor Review, 1, 1986, p. 7‑12.↩︎
  50. Fred Turner, « Ne soyez pas malveillants. Utopies, frontières et brogrammers », Esprit, 434, mai 2019, URL.↩︎
  51. Association Autogestion, Autogestion. L’encyclopédie internationale, Paris, Syllepse, 2019, vol. 1-11.↩︎



Ouvrir le code des algorithmes ? — oui, mais… (2/2)

Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse  des enjeux qui en découlent.


Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ?

par Hubert GUILLAUD

Que voulons-nous vraiment savoir en enquêtant sur l’amplification algorithmique ? C’est justement l’enjeu du projet de recherche qu’Arvind Narayan mène au Knight Institute de l’université Columbia où il a ouvert un blog dédié et qui vient d’accueillir une grande conférence sur le sujet. Parler d’amplification permet de s’intéresser à toute la gamme des réponses qu’apportent les plateformes, allant de l’amélioration de la portée des discours à leur suppression, tout en se défiant d’une réduction binaire à la seule modération automatisée, entre ce qui doit être supprimé et ce qui ne doit pas l’être. Or, les phénomènes d’amplification ne sont pas sans effets de bord, qui vont bien au-delà de la seule désinformation, à l’image des effets très concrets qu’ont les influenceurs sur le commerce ou le tourisme. Le gros problème, pourtant, reste de pouvoir les étudier sans toujours y avoir accès.

Outre des analyses sur TikTok et les IA génératives, le blog recèle quelques trésors, notamment une monumentale synthèse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (l’article est également très riche en liens et références, la synthèse que j’en propose y recourra assez peu).

Narayan rappelle que les plateformes disposent de très nombreux algorithmes entremêlés, mais ceux qui l’intéressent particulièrement sont les algorithmes de recommandation, ceux qui génèrent les flux, les contenus qui nous sont mis à disposition. Alors que les algorithmes de recherche sont limités par le terme recherché, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrôle bien plus grand sur ce qu’elles recommandent à un utilisateur.

La souscription, le réseau et l’algorithme

Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le réseau et l’algorithme. Dans le modèle par abonnement, le message atteint les personnes qui se sont abonnées à l’auteur du message. Dans le modèle de réseau, il se propage en cascade à travers le réseau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé.

À l’origine, les réseaux sociaux comme Facebook ou Twitter ne fonctionnaient qu’à l’abonnement : vous ne voyiez que les contenus des personnes auxquelles vous étiez abonnés et vous ne pouviez pas republier les messages des autres ! Dans le modèle de réseau, un utilisateur voit non seulement les messages créés par les personnes auxquelles il s’est abonné, mais aussi les messages que ces utilisateurs choisissent d’amplifier, ce qui crée la possibilité de cascades d’informations et de contenus “viraux”, comme c’était le cas de Twitter jusqu’en 2016, moment où le réseau introduisit le classement algorithmique. Dans le modèle algorithmique, la souscription est bien souvent minorée, le réseau amplifié mais surtout, le flux dépend principalement de ce que l’algorithme estime être le plus susceptible d’intéresser l’utilisateur. C’est ce que Cory Doctorow désigne comme « l’emmerdification  » de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnés comme des suggestions et non comme des commandes.

Le passage aux recommandations algorithmiques a toujours généré des contestations, notamment parce que, si dans les modèles d’abonnement et de réseau, les créateurs peuvent se concentrer sur la construction de leur réseau, dans le « modèle algorithmique, cela ne sert à rien, car le nombre d’abonnés n’a rien à voir avec la performance des messages » (mais comme nous sommes dans des mélanges entre les trois modèles, le nombre d’abonnés a encore un peu voire beaucoup d’influence dans l’amplification). Dans le modèle algorithmique, l’audience de chaque message est optimisée de manière indépendante en fonction du sujet, de la « qualité » du message et d’un certain nombre de paramètres pris en compte par le modèle.

Amplification et viralité

La question de l’amplification interroge la question de la viralité, c’est-à-dire le fait qu’un contenu soit amplifié par une cascade de reprises, et non pas seulement diffusé d’un émetteur à son public. Le problème de la viralité est que sa portée reste imprévisible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des créateurs, la majorité de l’engagement provient d’une petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidéos les plus vues d’un compte obtiennent plus de 70 % des vues. Plus le rôle de l’algorithme dans la propagation du contenu est important, par opposition aux abonnements ou au réseau, plus cette inégalité semble importante.

Parce qu’il est particulièrement repérable dans la masse des contenus, le contenu viral se prête assez bien à la rétropropagation, c’est-à-dire à son déclassement ou à sa suppression. Le problème justement, c’est qu’il y a plein de manières de restreindre le contenu. Facebook classe les posts rétrogradés plus bas dans le fil d’actualité qu’ils ne le seraient s’ils ne l’avaient pas été, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. À son tour, l’effet de la rétrogradation sur la portée peut être imprévisible, non linéaire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rétrogradation est parfaitement opaque, notamment parce qu’une faible portée n’est pas automatiquement suspecte, étant donné qu’il existe une grande variation dans la portée naturelle du contenu.

Amplification et prédiction de l’engagement

Les plateformes ont plusieurs objectifs de haut niveau : améliorer leurs revenus publicitaires bien sûr et satisfaire suffisamment les utilisateurs pour qu’ils reviennent… Mais ces objectifs n’aident pas vraiment à décider ce qu’il faut donner à un utilisateur spécifique à un moment précis ni à mesurer comment ces décisions impactent à long terme la plateforme. D’où le fait que les plateformes observent l’engagement, c’est-à-dire les actions instantanées des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilité que l’utilisateur s’y intéresse. « D’une certaine manière, l’engagement est une approximation des objectifs de haut niveau. Un utilisateur qui s’engage est plus susceptible de revenir et de générer des revenus publicitaires pour la plateforme.  »
Si l’engagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intègrent bien d’autres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives », c’est-à-dire une moyenne pondérée des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durée de visionnage que l’algorithme prédit. TikTok utilise les interactions sociales et valorise les vidéos qui ont été regardées jusqu’au bout, comme un signal fort et qui explique certainement le caractère addictif de l’application et le fait que les vidéos courtes (qui ont donc tendance à obtenir un score élevé) continuent de dominer la plateforme.

En plus de ces logiques de base, il existe bien d’autres logiques secondaires, comme par exemple, pour que l’expérience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitées, sélectionnées plus que classées, selon divers critères plus que selon des critères uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires à ceux qu’on a apprécié, TikTok se distingue à nouveau par l’importance qu’il accorde à l’exploration de nouveaux contenus… c’est d’ailleurs la tactique suivie désormais par Instagram de Meta via les Reels, boostés sur le modèle de TikTok, qui ont le même effet que sur TikTok, à savoir une augmentation du temps passé sur l’application)… 

« Bien qu’il existe de nombreuses différences dans les détails, les similitudes entre les algorithmes de recommandation des différentes plateformes l’emportent sur leurs différences », estime Narayan. Les différences sont surtout spécifiques, comme Youtube qui optimise selon la durée de visionnage, ou Spotify qui s’appuie davantage sur l’analyse de contenu que sur le comportement. Pour Narayan, ces différences montrent qu’il n’y a pas de risque concurrentiel à l’ouverture des algorithmes des plateformes, car leurs adaptations sont toujours très spécifiques. Ce qui varie, c’est la façon dont les plateformes ajustent l’engagement.

Comment apprécier la similarité ?

Mais la grande question à laquelle tous tentent de répondre est la même : « Comment les utilisateurs similaires à cet utilisateur ont-ils réagi aux messages similaires à ce message ?  »

Si cette approche est populaire dans les traitements, c’est parce qu’elle s’est avérée efficace dans la pratique. Elle repose sur un double calcul de similarité. D’abord, celle entre utilisateurs. La similarité entre utilisateurs dépend du réseau (les gens que l’on suit ou ceux qu’on commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires s’ils se sont engagés dans un ensemble de messages similaires  ») et les données démographiques (du type âge, sexe, langue, géographie… qui sont en grande partie déduits des comportements).

Ensuite, il y a un calcul sur la similarité des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes d’extraction des caractéristiques (comme la langue) intégrant des évaluations normatives, comme la caractérisation de discours haineux. L’autre signal de similarité des messages tient, là encore, au comportement : « deux messages sont similaires si un ensemble similaire d’utilisateurs s’est engagé avec eux ». Le plus important à retenir, insiste Narayan, c’est que « l’enregistrement comportemental est le carburant du moteur de recommandation ». La grande difficulté, dans ces appréciations algorithmiques, consiste à faire que le calcul reste traitable, face à des volumes d’enregistrements d’informations colossaux.

Une histoire des évolutions des algorithmes de recommandation

« La première génération d’algorithmes de recommandation à grande échelle, comme ceux d’Amazon et de Netflix au début des années 2000, utilisait une technique simple appelée filtrage collaboratif : les clients qui ont acheté ceci ont également acheté cela ». Le principe était de recommander des articles consultés ou achetés d’une manière rudimentaire, mais qui s’est révélé puissant dans le domaine du commerce électronique. En 2006, Netflix a organisé un concours en partageant les évaluations qu’il disposait sur les films pour améliorer son système de recommandation. Ce concours a donné naissance à la « factorisation matricielle », une forme de deuxième génération d’algorithmes de recommandation, c’est-à-dire capables d’identifier des combinaisons d’attributs et de préférences croisées. Le système n’étiquette pas les films avec des termes interprétables facilement (comme “drôle” ou “thriller” ou “informatif”…), mais avec un vaste ensemble d’étiquettes (de micro-genres obscurs comme « documentaires émouvants qui combattent le système ») qu’il associe aux préférences des utilisateurs. Le problème, c’est que cette factorisation matricielle n’est pas très lisible pour l’utilisateur et se voir dire qu’on va aimer tel film sans savoir pourquoi n’est pas très satisfaisant. Enfin, ce qui marche pour un catalogue de film limité n’est pas adapté aux médias sociaux où les messages sont infinis. La prédominance de la factorisation matricielle explique pourquoi les réseaux sociaux ont tardé à se lancer dans la recommandation, qui est longtemps restée inadaptée à leurs besoins.

Pourtant, les réseaux sociaux se sont tous convertis à l’optimisation basée sur l’apprentissage automatique. En 2010, Facebook utilisait un algorithme appelé EdgeRank pour construire le fil d’actualité des utilisateurs qui consistait à afficher les éléments par ordre de priorité décroissant selon un score d’affinité qui représente la prédiction de Facebook quant au degré d’intérêt de l’utilisateur pour les contenus affichés, valorisant les photos plus que le texte par exemple. À l’époque, ces pondérations étaient définies manuellement plutôt qu’apprises. En 2018, Facebook est passé à l’apprentissage automatique. La firme a introduit une métrique appelée « interactions sociales significatives » (MSI pour meaningful social interactions) dans le système d’apprentissage automatique. L’objectif affiché était de diminuer la présence des médias et des contenus de marque au profit des contenus d’amis et de famille. « La formule calcule un score d’interaction sociale pour chaque élément susceptible d’être montré à un utilisateur donné ». Le flux est généré en classant les messages disponibles selon leur score MSI décroissant, avec quelques ajustements, comme d’introduire de la diversité (avec peu d’indications sur la façon dont est calculée et ajoutée cette diversité). Le score MSI prédit la probabilité que l’utilisateur ait un type d’interaction spécifique (comme liker ou commenter) avec le contenu et affine le résultat en fonction de l’affinité de l’utilisateur avec ce qui lui est proposé. Il n’y a plus de pondération dédiée pour certains types de contenus, comme les photos ou les vidéos. Si elles subsistent, c’est uniquement parce que le système l’aura appris à partir des données de chaque utilisateur, et continuera à vous proposer des photos si vous les appréciez.

« Si l’on pousse cette logique jusqu’à sa conclusion naturelle, il ne devrait pas être nécessaire d’ajuster manuellement la formule en fonction des affinités. Si les utilisateurs préfèrent voir le contenu de leurs amis plutôt que celui des marques, l’algorithme devrait être en mesure de l’apprendre ». Ce n’est pourtant pas ce qu’il se passe. Certainement pour lutter contre la logique de l’optimisation de l’engagement, estime Narayan, dans le but d’augmenter la satisfaction à long terme, que l’algorithme ne peut pas mesurer, mais là encore sans que les modalités de ces ajustements ne soient clairement documentés.

Est-ce que tout cela est efficace ?

Reste à savoir si ces algorithmes sont efficaces ! « Il peut sembler évident qu’ils doivent bien fonctionner, étant donné qu’ils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux d’engagement est une façon de quantifier le problème : il s’agit de la probabilité qu’un utilisateur s’intéresse à un message qui lui a été recommandé. Sur la plupart des plateformes, ce taux est inférieur à 1 %. TikTok est une exception, mais même là, ce taux dépasse à peine les 5 %. »

Le problème n’est pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prévisibles. Et qu’au final, les utilisateurs ne se soucient pas tant du manque de précision de la recommandation. « Même s’ils sont imprécis au niveau individuel, ils sont précis dans l’ensemble. Par rapport aux plateformes basées sur les réseaux, les plateformes algorithmiques semblent être plus efficaces pour identifier les contenus viraux (qui trouveront un écho auprès d’un grand nombre de personnes). Elles sont également capables d’identifier des contenus de niche et de les faire correspondre au sous-ensemble d’utilisateurs susceptibles d’y être réceptifs. » Si les algorithmes sont largement limités à la recherche de modèles dans les données comportementales, ils n’ont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitésimal – même s’il est toujours considéré comme un succès !

Les ingénieurs contrôlent-ils encore les algorithmes ?

Les ingénieurs ont très peu d’espace pour contrôler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook s’est rendu compte que les publications virales étaient beaucoup plus susceptibles de contenir des informations erronées ou d’autres types de contenus préjudiciables. En d’autres termes, ils se sont rendu compte que le passage à des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient l’indignation et alimentaient les divisions gagnaient en portée, comme l’a expliqué l’ingénieure et lanceuse d’alerte Frances Haugen à l’origine des Facebook Files, dans ses témoignages. C’est ce que synthétise le tableau de pondération de la formule MSI publié par le Wall Street Journal, qui montrent que certains éléments ont des poids plus forts que d’autres : un commentaire vaut 15 fois plus qu’un like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondération aussi élevée permet d’identifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramené la pondération des partages à 1,5, mais la pondération des commentaires est restée très élevée (15 à 20 fois plus qu’un like). Alors que les partages et les commentaires étaient regroupés dans une seule catégorie de pondération en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polémiques. Reste, on le comprend, que le jeu qui reste aux ingénieurs de Facebook consiste à ajuster le poids des paramètres. Pour Narayan : piloter un système d’une telle complexité en utilisant si peu de boutons ne peut qu’être difficile.

Le chercheur rappelle que le système est censé être neutre à l’égard de tous les contenus, à l’exception de certains qui enfreignent les règles de la plateforme. Utilisateurs et messages sont alors rétrogradés de manière algorithmique suite à signalement automatique ou non. Mais cette neutralité est en fait très difficile à atteindre. Les réseaux sociaux favorisent ceux qui ont déjà une grande portée, qu’elle soit méritée ou non, et sont récompensés par une plus grande portée encore. Par exemple, les 1 % d’auteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralité finit par récompenser ceux qui sont capables de pirater l’engagement ou de tirer profit des biais sociaux.

Outre cette neutralité, un deuxième grand principe directeur est que « l’algorithme sait mieux que quiconque ». « Ce principe et celui de la neutralité se renforcent mutuellement. Le fait de confier la politique (concernant le contenu à amplifier) aux données signifie que les ingénieurs n’ont pas besoin d’avoir un point de vue à ce sujet. Et cette neutralité fournit à l’algorithme des données plus propres à partir desquelles il peut apprendre. »
Le principe de l’algorithme qui sait le mieux signifie que la même optimisation est appliquée à tous les types de discours : divertissement, informations éducatives, informations sur la santé, actualités, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rétrograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources d’information de haute qualité que de faible qualité, augmentant la désinformation. Cette neutralité affichée permet également une forme de désengagement des ingénieurs.

En 2021, encore, FB a entraîné des modèles d’apprentissage automatique pour classer les messages en deux catégories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour qu’ils apprécient des contenus qui leurs étaient proposés pour former les données. FB a constaté que les messages ayant une plus grande portée étaient considérés comme étant mauvais pour le monde. FB a donc rétrogradé ces contenus… mais en trouvant moins de contenus polémique, cette modification a entraîné une diminution de l’ouverture de l’application par les utilisateurs. L’entreprise a donc redéployé ce modèle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modèle d’affaires.

Illustration par Jason Alderman « Those Algorithms That Govern Our Lives – Kevin Slavin« . (CC BY 2.0)

Pourquoi l’optimisation de l’engagement nous nuit-elle ?

« Un grand nombre des pathologies familières des médias sociaux sont, à mon avis, des conséquences relativement directes de l’optimisation de l’engagement », suggère encore le chercheur. Cela explique pourquoi les réformes sont difficiles et pourquoi l’amélioration de la transparence des algorithmes, de la modération, voire un meilleur contrôle par l’utilisateur de ce qu’il voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (même si elles sont nécessaires).

Les données comportementales, celles relatives à l’engagement passé, sont la matière première essentielle des moteurs de recommandations. Les systèmes privilégient la rétroaction implicite sur l’explicite, à la manière de YouTube qui a privilégié le temps passé sur les rétroactions explicites (les likes). Sur TikTok, il n’y a même plus de sélection, il suffit de swipper.

Le problème du feedback implicite est qu’il repose sur nos réactions inconscientes, automatiques et émotionnelles, sur nos pulsions, qui vont avoir tendance à privilégier une vidéo débile sur un contenu expert.

Pour les créateurs de contenu, cette optimisation par l’engagement favorise la variance et l’imprévisibilité, ce qui a pour conséquence d’alimenter une surproduction pour compenser cette variabilité. La production d’un grand volume de contenu, même s’il est de moindre qualité, peut augmenter les chances qu’au moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de récompenser les contenus viraux se fait au détriment de tous les autres types de contenus (d’où certainement le regain d’attraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).

Au niveau de la société, toutes les institutions sont impactées par les plateformes algorithmiques, du tourisme à la science, du journalisme à la santé publique. Or, chaque institution à des valeurs, comme l’équité dans le journalisme, la précision en science, la qualité dans nombre de domaines. Les algorithmes des médias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualité. « Ils récompensent des facteurs sans rapport, sur la base d’une logique qui a du sens pour le divertissement, mais pas pour d’autres domaines ». Pour Narayan, les plateformes de médias sociaux « affaiblissent les institutions en sapant leurs normes de qualité et en les rendant moins dignes de confiance ». C’est particulièrement actif dans le domaine de l’information, mais cela va bien au-delà, même si ce n’est pas au même degré. TikTok peut sembler ne pas représenter une menace pour la science, mais nous savons que les plateformes commencent par être un divertissement avant de s’étendre à d’autres sphères du discours, à l’image d’Instagram devenant un outil de communication politique ou de Twitter, où un tiers des tweets sont politiques.

La science des données en ses limites

Les plateformes sont bien conscientes de leurs limites, pourtant, elles n’ont pas fait beaucoup d’efforts pour résoudre les problèmes. Ces efforts restent occasionnels et rudimentaires, à l’image de la tentative de Facebook de comprendre la valeur des messages diffusés. La raison est bien sûr que ces aménagements nuisent aux résultats financiers de l’entreprise. « Le recours à la prise de décision subconsciente et automatique est tout à fait intentionnelle ; c’est ce qu’on appelle la « conception sans friction ». Le fait que les utilisateurs puissent parfois faire preuve de discernement et résister à leurs impulsions est vu comme un problème à résoudre. »

Pourtant, ces dernières années, la réputation des plateformes n’est plus au beau fixe. Narayan estime qu’il y a une autre limite. « La plupart des inconvénients de l’optimisation de l’engagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considérable à la recherche d’une relation quantitative et causale entre les changements apportés à l’algorithme et leurs effets. »
Si on observe les raisons qui poussent l’utilisateur à quitter une plateforme, la principale est qu’il ne parvient pas à obtenir des recommandations suffisamment intéressantes. Or, c’est exactement ce que l’optimisation par l’engagement est censée éviter. Les entreprises parviennent très bien à optimiser des recommandations qui plaisent à l’utilisateur sur l’instant, mais pas celles qui lui font dire, une fois qu’il a fermé l’application, que ce qu’il y a trouvé l’a enrichi. Elles n’arrivent pas à calculer et à intégrer le bénéfice à long terme, même si elles restent très attentives aux taux de rétention ou aux taux de désabonnement. Pour y parvenir, il faudrait faire de l’A/B testing au long cours. Les plateformes savent le faire. Facebook a constaté que le fait d’afficher plus de notifications augmentait l’engagement à court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets à longs termes ne semble pas être une priorité par rapport à leurs effets de plus courts termes.

Une autre limite repose sur l’individualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes n’intériorisent leurs préjudices collectifs. Ces systèmes reposent sur l’hypothèse que le comportement de chaque utilisateur est indépendant et que l’effet sur la société (l’atteinte à la démocratie par exemple…) est très difficile à évaluer. Narayan le résume dans un tableau parlant, où la valeur sur la société n’a pas de métrique associée.

Graphique montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d'engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.
Tableau montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d’engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Les algorithmes ne sont pas l’ennemi (enfin si, quand même un peu)

Pour répondre à ces problèmes, beaucoup suggèrent de revenir à des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnés. Pas sûr que cela soit une solution très efficace pour gérer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont été la réponse à la surcharge d’information, rappelle-t-il : « Il y a beaucoup plus d’informations en ligne en rapport avec les intérêts d’une personne qu’elle n’en a de temps disponible. » Les algorithmes de classement sont devenus une nécessité pratique. Même dans le cas d’un réseau longtemps basé sur l’abonnement, comme Instagram : en 2016, la société indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils étaient abonnés. Aujourd’hui, Instagram compte 5 fois plus d’utilisateurs. En fait, les plateformes subissent d’énormes pressions pour que les algorithmes soient encore plus au cœur de leur fonctionnement que le contraire. Et les systèmes de recommandation font leur entrée dans d’autres domaines, comme l’éducation (avec Coursera) ou la finance (avec Robinhood).

Pour Narayan, l’enjeu reste de mieux comprendre ce qu’ils font. Pour cela, nous devons continuer d’exiger d’eux bien plus de transparence qu’ils n’en livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts à faire pour contrecarrer activement les modèles les plus nuisibles des recommandations. L’enjeu, conclut-il, est peut-être d’esquisser plus d’alternatives que nous n’en disposons, comme par exemple, d’imaginer des algorithmes de recommandations qui n’optimisent pas l’engagement, ou pas seulement. Cela nécessite certainement aussi d’imaginer des réseaux sociaux avec des modèles économiques différents. Un autre internet. Les algorithmes ne sont peut-être pas l’ennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considération, ne sont pas nos amis non plus !




Détruire le capitalisme de surveillance – 6 et fin

Voici la sixième et dernière partie de notre traduction de l’essai que consacre Cory Doctorow au capitalisme de surveillance pour le déconstruire.

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang pour cette partie : Claire, Fabrice, goofy, Jums, Susyl, anonymes

Vous pouvez également :

 

 

_________________________________________

 

Les Fake news comme crise épistémologique

La Tech n’est pas la seule industrie qui ait subi une concentration massive depuis l’ère Reagan. Quasiment toutes les grandes industries, depuis le pétrole jusqu’à la presse, en passant par l’emballage, le fret maritime, les lunettes, mais aussi la pornographie en ligne, sont devenues des oligarchies sélectives dominées seulement par une poignée de participants.

Dans le même temps, chaque industrie est devenue, en quelque sorte, une industrie technologique, puisque, d’une part, les ordinateurs polyvalents et les principaux réseaux et d’autre part la promesse d’efficacité à travers de l’analyse des données injectent de la technologie dans chaque appareil, chaque processus et chaque entreprise.

Ce phénomène de concentration industrielle fait partie d’une situation plus large de concentration des richesses en général, étant donné qu’un nombre toujours plus réduit de personnes possède une part croissante de notre monde. Cette concentration des richesses et des industries signifie que nos choix politiques sont de plus en plus tributaires des intérêts des personnes et des entreprises qui possèdent toutes ces richesses.

Cela signifie que lorsqu’un régulateur pose une question à laquelle la réponse est empirique (par exemple : « Les hommes sont-ils responsables du changement climatique ? » ou bien « Devons-nous laisser les entreprises s’adonner à la surveillance commerciale de masse ? » ou encore « La société tire-t-elle des avantages de l’autorisation de violations de la neutralité des réseaux ? »), la réponse qui en découle sera exacte uniquement si elle est conforme à celle proposée par les riches et les industries qui les rendent si riches.

Les riches ont toujours joué un rôle démesuré en politique, d’autant plus depuis la décision depuis l’arrêt Citizens United de la Cour suprême qui supprime des moyens décisifs de contrôle des dépenses électorales. Creuser les inégalités et concentrer les richesses signifie que les plus riches sont maintenant beaucoup plus riches et peuvent se permettre de dépenser beaucoup plus d’argent pour des projets politiques qu’auparavant. Pensez aux frères Koch, à George Soros ou à Bill Gates.

Mais les distorsions politiques des riches sont négligeables en comparaison des distorsions politiques dont les secteurs industriels centralisés sont capables. Les entreprises de ces secteurs industriels hautement centralisées sont beaucoup plus rentables que les entreprises de secteurs concurrentielles : pas de concurrence veut dire pas besoin de casser les prix ou d’améliorer la qualité pour gagner des clients, ce qui leur permet de dépenser leurs excédents de capitaux en lobbying.

Il est aussi plus facile pour les industries centralisées de collaborer sur des objectifs stratégiques plutôt que d’entrer en concurrence directe. Lorsque tous les cadres exécutifs de votre industrie peuvent se réunir autour d’une seule table, ils le font. Et souvent, lorsqu’ils le font, ils peuvent s’accorder sur un consensus autour des régulations.

Grimper les échelons dans une industrie centralisée veut généralement dire travailler pour deux ou trois grandes entreprises. Quand il n’y a qu’un nombre relativement réduit d’entreprises dans un secteur, chaque entreprise a ses échelons exécutifs sclérosés, qui ne laissent aux cadres ambitieux que très peu de possibilités de promotion, à moins d’être recrutés par un concurrent. Il est probable que le gratin des cadres exécutifs d’un secteur centralisé ont tous été collègues à un moment, qu’ils ont évolué dans les mêmes cercles sociaux, qu’ils se sont rencontrés via leurs relations sociales ou, par exemple, en étant administrateur des biens des autres. Ces relations étroites favorisent une attitude collégiale plutôt que concurrentielle.

Les industries hautement concentrées sont également des casse-têtes à réglementer. Dans une industrie dominée par seulement quatre ou cinq sociétés, les seules personnes susceptibles de vraiment en comprendre les pratiques sont les anciens cadres exécutifs de ce secteur. Cela signifie que les hauts dirigeants des services de régulation sont souvent les anciens cadres des entreprises qu’ils sont censés réguler. Cette rotation de la gouvernance est souvent tacitement considérée comme une forme d’absence autorisée, et les anciens employeurs accueillent alors à nouveau volontiers dans leurs rangs leurs anciens chiens de garde lorsque leur mandat se termine.

Tout ça pour dire que les liens sociaux étroits, le petit nombre d’entreprises et la mainmise sur les systèmes de réglementation donnent aux entreprises qui composent ces secteurs centralisés le pouvoir de contrôler beaucoup sinon toutes les régulations qui les limitent.

Et c’est de plus en plus visible. Que ce soient des prêteurs sur gages qui gagnent le droit de pratiquer des prêts agressifs, Apple qui gagne le droit de décider qui peut réparer votre téléphone, Google et Facebook qui gagnent le droit d’accéder à vos données personnelles sans aucune conséquence significative, les victoires des entreprises pétrolières, l’impunité des fabricants d’opioïdes, les subventions fiscales massives pour des entreprises dominantes incroyablement rentables, il est de plus en plus évident qu’un grand nombre de nos procédures officielles, basées sur des faits et à la recherche de la vérité, sont, en réalité des ventes aux enchères au plus offrant.

Il est vraiment impossible de surestimer l’ampleur de cette perspective terrifiante. Nous vivons dans une société incroyablement high-tech et aucun de nous ne pourrait acquérir l’expertise nécessaire pour évaluer chacune des propositions technologiques qui nous séparent de notre horrible disparition finale. Vous pourriez passer une vie entière à acquérir les compétences numériques pour distinguer les publications scientifiques fiables des faux-semblants financés par la corruption, tout comme acquérir les connaissances en microbiologie et épidémiologie pour savoir si les déclarations sur la sûreté des vaccins sont recevables. Mais vous seriez toujours incompétent⋅e pour savoir si le câblage électrique de votre maison pourrait vous électrocuter, ou si le logiciel qui pilote les freins de votre voiture ne risque pas de les lâcher sans prévenir, ou encore si l’hygiène de votre boucher est suffisante pour vous éviter de mourir à la fin de votre repas.

Dans un monde aussi complexe que celui-là, nous devons nous en référer aux autorités, et nous nous assurons qu’ils restent honnêtes en leur faisant rendre des comptes et se soumettre à des règles pour éviter les conflits d’intérêts. Nous ne pouvons pas acquérir l’expertise pour émettre un jugement sur les demandes contradictoires concernant la meilleure façon de rendre le monde sûr et prospère, mais nous pourrions déterminer si le processus d’évaluation lui-même est fiable.

Pour le moment, ce n’est pas du tout le cas.

Durant ces quarante dernières années, l’accroissement des inégalités et de la concentration des industries, conjugué à la diminution de la responsabilité et au manque de transparence des organismes experts, ont renforcé le sentiment d’une catastrophe imminente, ce sentiment qu’il existe de grandes conspirations à l’œuvre qui opèrent avec une approbation officielle tacite, malgré la probabilité qu’elles travaillent à leur propre survie sur les ruines de notre monde.

Par exemple, cela fait des décennies que les scientifiques d’Exxon eux-mêmes ont conclu que leur production rendrait la Terre inhabitable par les humains. Et ces décennies sont désormais bel et bien perdues pour nous, en grande partie à cause du lobbying d’Exxon auprès des gouvernements et de l’instillation de doutes sur la dangerosité de sa production, et ce avec l’appui de beaucoup d’agents de l’État. Lorsque votre survie et celle de votre entourage sont menacées par des conspirations, il n’est pas anormal de commencer à s’interroger sur les choses que vous pensez connaître pour tenter de savoir si elles sont, elles aussi, le résultat d’une autre conspiration.

L’effondrement de la crédibilité de nos systèmes face aux vérités révélées nous a laissé dans un état de chaos épistémologique. Avant, la plupart d’entre nous pensaient que le système fonctionnait et que nos régulations reflétaient le meilleur des vérités empiriques de notre monde, car elles étaient mieux comprises. Désormais, nous devons trouver nos propres experts pour nous aider à trier le vrai du faux.

Si vous êtes comme moi, vous devez probablement croire que les vaccins sont sûrs, mais (comme moi) vous ne pouvez pas expliquer la microbiologie ou les statistiques. Peu d’entre nous possèdent les capacités en mathématiques suffisantes pour pouvoir lire les documents sur la sûreté des vaccins et décrire en quoi leurs statistiques sont valides. De même, peu d’entre nous peuvent examiner la documentation sur la sûreté des opioïdes (désormais discréditée) et expliquer en quoi ces statistiques étaient manipulées. Les vaccins comme les opioïdes ont été acceptés par le corps médical, après tout, et pourtant les uns sont sûrs tandis que les autres pourraient détruire votre vie. Il ne vous reste qu’une myriade de règles au doigt mouillé pour lesquelles vous devez faire confiance aux experts pour vérifier des affirmations controversées et expliquer ensuite en quoi tous ces respectables médecins et leurs recherches évaluées par des pairs sur les opioïdes étaient une aberration, et comment vous savez que la littérature médicale sur la sécurité des vaccins n’est pas, elle aussi, une aberration.

Je suis certain à 100 % que la vaccination est sûre et efficace, mais j’ai aussi un peu de mal à comprendre exactement, précisément, pourquoi j’y crois, étant donné toute la corruption dont j’ai connaissance et les nombreuses fois où on découvre sous le sceau de la vérité un mensonge éhonté pour enrichir toujours plus les ultra-riches.

Les fake news, que ce soit une théorie du complot, une idéologie raciste ou un négationnisme scientifique, ont toujours existé. Ce qui est nouveau aujourd’hui, ce n’est pas le mélange des idées dans le discours public mais la popularité des pires idées dans de ce mélange. La conspiration et le déni ont explosé au même rythme que les inégalités les plus criantes, qui ont elles-mêmes suivi le même chemin que les Géants de la tech, les Géants de l’industrie pharmaceutique, les Géants du catch et les Géants de l’automobile et les Géants du cinéma et les Géants de tout le reste.

Personne ne peut dire avec certitude comment on en est arrivé là, mais les deux camps principaux sont l’idéalisme (la conviction que les personnes qui défendent ces conspirations se sont améliorés à les expliquer, peut-être avec l’aide d’outils d’apprentissage machine) et le matérialisme (les idées sont devenues plus séduisantes en raison des conditions matérielles du monde).

Je suis matérialiste. J’ai été exposé aux arguments des théories conspirationnistes toute ma vie, et je n’ai jamais constaté d’amélioration soudaine de la qualité de ces arguments.

La principale différence réside bien dans le monde, et non dans les arguments. À une époque où les vraies conspirations sont banales, les théories conspirationnistes deviennent de plus en plus vraisemblables.

Nous avons toujours eu des désaccords sur ce qui est vrai, mais aujourd’hui nous avons des désaccords sur la manière dont nous savons si quelque chose est vrai. C’est une crise épistémologique, pas une crise de la croyance. Une crise de la crédibilité de nos exercices de recherche de la vérité, depuis les revues scientifiques (à une époque où les principaux éditeurs ont été pris la main dans le sac en train de publier des revues d’articles payantes avec de la science de pacotille) jusqu’aux instances régulatrices (à une époque où les régulateurs ont pris l’habitude de faire des allers-retours dans le monde des affaires) en passant par l’éducation (à une époque où les universités dépendent de mécénats d’entreprises pour garder la tête hors de l’eau).

Le ciblage – le capitalisme de surveillance – permet de trouver plus facilement des personnes qui subissent cette crise épistémologique, mais ce n’est pas lui qui crée la crise en elle-même. Pour cela, il faut regarder du côté de la corruption.

Et, heureuse coïncidence, c’est la corruption qui permet au capitalisme de surveillance de se développer en démantelant les protections contre les monopoles, en permettant la collecte et la conservation des données personnelles, en autorisant les publicités à être ciblées sans consentement, et en empêchant d’aller ailleurs pour continuer à profiter de vos amis sans vous soumettre à la surveillance commerciale.

La tech, c’est différent

Je refuse les deux variantes de l’exceptionnalisme technologique : d’une part l’idée que la technologie puisse être uniquement exécrable et dirigée par des personnes plus avides ou plus horribles que les dirigeants d’autres secteurs industriels et, d’autre part, l’idée que la technologie est tellement bénéfique, ou qu’elle est si intrinsèquement destinée à la concentration, que personne ne peut lui reprocher son statut monopolistique actuel.

Je pense que la technologie n’est qu’une industrie comme les autres, même si elle a grandi sans véritables contraintes de monopole. Elle a peut-être été la première, mais ce n’est pas la pire et ce ne sera pas la dernière.

Mais il y a un cas de figure où je suis en faveur de l’exception technologique. Je pense que les outils en ligne sont la clé pour surmonter des problèmes bien plus urgents que le monopole de la technologie : le changement climatique, les inégalités, la misogynie et les discriminations fondées sur la race, le genre et d’autres critères. Internet nous permet de recruter des personnes pour mener ces combats et coordonner leurs efforts. La technologie ne remplace pas la responsabilité démocratique, ni l’État de droit, ni l’équité, ni la stabilité, mais elle est un moyen d’atteindre ces objectifs.

Notre espèce a un vrai problème avec la coordination. Tout, du changement climatique au changement social en passant par la gestion d’une entreprise et le fonctionnement d’une famille, peut être considéré comme un problème d’action collective.

Grâce à Internet, il est plus facile que jamais de trouver des personnes qui veulent collaborer à un projet avec vous (d’où le succès des logiciels libres et open source, du financement participatif, des groupes racistes terroristes…) et jamais il n’a été aussi facile de coordonner le travail que vous faites.

Internet et les ordinateurs que nous y connectons possèdent aussi une qualité exceptionnelle : la polyvalence de leur usage. Internet est conçu pour permettre à deux interlocuteurs s’échanger des données, en utilisant n’importe quel protocole, sans l’autorisation d’une personne tierce. La seule contrainte de conception que nous ayons pour produire des ordinateurs, c’est qu’ils doivent être polyvalents. Un ordinateur complet au sens de Turing peut exécuter tous les programmes que nous pouvons exprimer dans une logique symbolique.

Cela signifie que chaque fois qu’une personne avec un besoin particulier de communication investit dans des infrastructures et des moyens techniques pour rendre Internet plus rapide, moins cher et plus robuste, cela bénéficie à tous celles et ceux qui utilisent Internet pour communiquer. Cela signifie également que chaque fois qu’une personne qui a des besoins informatiques particuliers investit pour rendre les ordinateurs plus rapides, moins chers et plus robustes, toutes les autres applications informatiques sont des bénéficiaires potentielles de ce travail.

Pour toutes ces raisons, tous les types de communication sont progressivement absorbés par Internet, et toutes les catégories d’appareils, des avions aux stimulateurs cardiaques, finissent par devenir un ordinateur dans un joli boîtier fantaisie.

Bien que ces considérations n’empêchent pas de réglementer les réseaux et les ordinateurs, elles constituent un appel à la rigueur et à la prudence, car les changements apportés aux cadres réglementaires pourraient avoir des conséquences imprévues dans de très nombreux domaines.

La conséquence de tout cela, c’est que notre meilleure chance de résoudre nos énormes problèmes de coordination – le changement climatique, les inégalités, etc. – réside dans une technologie éthique, libre et ouverte. Et notre meilleure chance de maintenir des technologies libres, ouvertes et éthiques c’est de nous montrer prudents dans la manière de réglementer la technologie et de prêter une attention particulière à la façon dont les interventions pour résoudre un problème peuvent créer de nouveaux problèmes dans d’autres domaines.

La propriété des faits

Les Géants de la tech ont une drôle de relation avec l’information. Lorsque vous générez des informations, qu’il s’agisse de données de localisation diffusées en continu par votre appareil mobile ou des messages privés que vous envoyez à vos amis sur un réseau social, ils revendiquent le droit d’utiliser ces données de manière illimitée.

Mais lorsque vous avez l’audace d’inverser les rôles, en utilisant un outil bloqueur de publicités ou qui récupère vos mises à jour en attente sur un réseau social et les installe dans une autre application qui vous laisse déterminer vos propres priorités et suggestions, ou qui analyse leur système pour vous permettre de créer une entreprise concurrente, alors là, ils prétendent que vous les volez.

En réalité, l’information ne convient à aucun type de régime de propriété privée. Les droits de propriété permettent de créer des marchés qui peuvent conduire au développement d’actifs non exploités. Ces marchés dépendent d’intitulés clairs pour garantir que les choses qui y sont achetées et vendues peuvent réellement être achetées et vendues.
Les informations ont rarement un intitulé aussi clair. Prenez les numéros de téléphone : de toute évidence, il n’est pas normal que Facebook récupère les carnets d’adresses de millions d’utilisateurs et utilise ces numéros de téléphone pour créer des graphes sociaux et renseigner les informations manquantes sur les autres utilisateurs.

Mais les numéros de téléphone que Facebook acquiert sans consentement dans le cadre de cette transaction ne sont pas la « propriété » des utilisateurs auxquels ils sont soustraits, ni celle des personnes dont le téléphone sonne lorsque vous les composez. Ces numéros sont de simples nombres entiers, composés de 10 chiffres aux États-Unis et au Canada, et on les trouve dans des milliards d’endroits, y compris quelque part dans le nombre Pi, ainsi que dans de nombreux autres contextes. Accorder aux gens des titres de propriété sur des nombres entiers est vraiment une très mauvaise idée.

Il en va de même pour les données que Facebook et d’autres acteurs de la surveillance publicitaire acquièrent à notre sujet, comme le fait que nous sommes les enfants de nos parents ou les parents de nos enfants ou que nous avons eu une conversation avec quelqu’un d’autre ou sommes allés dans un lieu public. Ces éléments d’informations ne peuvent pas vous appartenir comme votre maison ou votre chemise vous appartiennent, car leur titre de propriété est vague par nature. Votre mère est-elle propriétaire du fait d’être votre mère ? Et vous ? L’êtes-vous tous les deux ? Et votre père, est-il également propriétaire de ce fait ou doit-il obtenir une licence de votre part (ou de votre mère ou de vous deux) pour pouvoir en faire usage ? Qu’en est-il des centaines ou des milliers d’autres personnes qui disposent de ces données ?

Si vous allez à une manifestation Black Lives Matter, les autres manifestants ont-ils besoin de votre autorisation pour poster leurs photos de l’événement ? Les querelles en ligne sur le moment et la manière de publier des photos de manifestations révèlent un problème subtil et complexe, difficile à régler d’un coup de baguette magique en accordant à certains un droit de propriété que tous les autres doivent respecter.

Le fait que l’information ne fasse pas bon ménage avec la propriété et les marchés ne signifie pas pour autant qu’elle n’a aucune de valeur. Un bébé n’est pas un bien, il n’en reste pas moins qu’il possède une valeur incontestable. En réalité, nous avons un ensemble de règles uniquement dédié aux bébés, et une partie seulement de ces règles s’appliquent aux humains de façon plus générale. Celui qui affirmerait que les bébés n’auront pas véritablement de valeur tant qu’on ne pourra pas les acheter et les vendre comme des petits pains serait immédiatement et à juste titre condamné comme un monstre.

Il est tentant d’attraper le marteau de la propriété quand les Géants de la tech traitent vos informations comme des clous, en particulier parce que les Géants de la tech font un tel abus des marteaux de la propriété quand il s’agit de leurs informations. Mais c’est une erreur. Si nous permettons aux marchés de nous dicter l’usage de nos informations, nous allons devenir des vendeurs sur un marché d’acheteurs. Un marché qui sera monopolisé par les Géants de la tech. Ils attribueront un si bas prix à nos données, qu’il en deviendra insignifiant ou, plus probablement, qu’il sera fixé à un prix proche de zéro sans aucune possibilité de négociation, et ce, grâce à un accord donné d’un simple clic, sans possibilité de le modifier.

D’ici là, établir des droits de propriété sur l’information créera des obstacles insurmontables au traitement indépendant des données. Imaginez que l’on exige de négocier une licence quand un document traduit est comparé à sa version originale, ce qu’a fait Google et qu’il continue à faire des milliards de fois pour entraîner ses outils de traduction automatique. Google peut se le permettre, mais pas les tiers indépendants. Google peut mettre en place un service d’autorisation pour négocier des paiements uniques à des institutions comme l’UE (l’un des principaux dépositaires de documents traduits). Alors que les organismes de surveillance indépendants, qui veulent vérifier que les traductions sont bien préparées ou bien qui veulent éliminer les erreurs de traduction, auront besoin d’un service juridique doté de personnel et de millions pour payer les licences avant même de pouvoir commencer.

Il en va de même pour les index de recherche sur le Web ou les photos des maisons des gens, qui sont devenues controversées avec le projet Street View de Google. Quels que soient les problèmes que pose la photographie de scènes de rue par Google, les résoudre en laissant les gens décider qui peut photographier les façades de leurs maisons depuis une rue publique créera sûrement des problèmes plus graves encore. Pensez à l’importance de la photographie de rue pour la collecte d’informations, y compris la collecte informelle d’informations, comme les photos d’abus d’autorité, et combien il est important de pouvoir documenter l’habitat et la vie dans la rue pour contester un droit de préemption, plaider en faveur de l’aide sociale, signaler les violations de la planification et de zonage, documenter les conditions de vie discriminatoires et inégales, etc.

S’approprier des faits est contraire à un grand nombre de progrès humains. Il est difficile d’imaginer une règle qui limite l’exploitation par les Géants de la tech de notre travail collectif sans empêcher involontairement des personnes de recueillir des données sur le cyber-harcèlement ou de compiler des index de changements de langue, ou encore simplement d’enquêter sur la façon dont les plateformes façonnent notre discours. Tout cela nécessite d’exploiter des données créées par d’autres personnes et de les soumettre à l’examen et à l’analyse.

La persuasion, ça marche… mais lentement

Les plateformes peuvent exagérer leur capacité à persuader les gens, mais il est évident que la persuasion fonctionne parfois. Qu’il s’agisse du domaine privé utilisé par les personnes LGBTQ pour recruter des alliés et faire reconnaître une diversité sexuelle ou du projet mené depuis des décennies pour convaincre les gens que les marchés constituent le seul moyen efficace de résoudre les problèmes complexes d’allocation de ressources, il est clair que nos comportements sociaux peuvent changer.

Modifier les comportements au sein de la société est un projet de longue haleine. Pendant des années, les svengalis ont prétendu pouvoir accélérer ce processus, mais même les formes de propagande les plus brutales ont dû se battre pour susciter des changements permanents. Joseph Goebbels a dû soumettre les Allemands à des heures de radiodiffusion quotidiennes obligatoires pour arrêter les opposants et les assassiner, ainsi que de s’assurer d’un contrôle intégral sur l’éducation des enfants, tout en excluant toute littérature, émission ou film qui ne se conformaient pas à sa vision du monde.

Cependant, après 12 ans de terreur, une fois la guerre terminée, l’idéologie nazie a largement été discréditée en Allemagne de l’Est comme de l’Ouest, et un programme de vérité et de réconciliation nationale a été mis en place. Le racisme et l’autoritarisme n’ont jamais été totalement abolis en Allemagne, mais la majorité des Allemands n’étaient pas non plus définitivement convaincus par le nazisme. La montée de l’autoritarisme raciste en Allemagne aujourd’hui montre que les attitudes libérales qui ont remplacé le nazisme n’étaient pas plus définitives que le nazisme lui-même.

Le racisme et l’autoritarisme ont également toujours été présents chez nous, en Amérique du Nord. Tous ceux qui se sont déjà penchés sur le genre de messages et d’arguments que les racistes avancent aujourd’hui auraient du mal à faire croire qu’ils ont fait des progrès dans la façon de présenter leurs idées. On retrouve aujourd’hui dans le discours des principaux nationalistes blancs la même pseudo-science, les mêmes recours à la peur, le même raisonnement en boucle que ceux présentés par les racistes des années 1980, lorsque la cause de la suprématie blanche était en perte de vitesse.

Si les racistes n’ont pas été plus convaincants au cours de la dernière décennie, comment se fait-il que davantage de personnes aient été convaincues d’être ouvertement racistes ? Il semble que la réponse se trouve dans le monde matériel, pas dans le monde des idées. Non pas qu’elles soient devenues plus convaincantes, mais les gens sont devenus de plus en plus peureux. Ils ont peur de ne plus pouvoir faire confiance à l’État pour agir de façon honnête dans des domaines essentiels, depuis la gestion de l’économie jusqu’à la réglementation des analgésiques ou celle du traitement des données privées.

Les gens ont peur que le monde soit devenu un jeu de chaises musicales dans lequel les chaises sont retirées à un rythme sans précédent. Ils ont peur que la justice soit rendue à leur détriment. Le monopole n’est pas la cause de ces craintes, mais l’inégalité, la misère matérielle et les mauvaises pratiques politiques qu’il engendre y contribue fortement. L’inégalité crée les conditions propices aux conspirations et aux idéologies racistes violentes. Le capitalisme de surveillance permet alors aux opportunistes de cibler les personnes qui ont peur et celles qui sont conspirationnistes.

Payer ne va pas aider à grand-chose

Comme le dit le déjà vieil adage : « si c’est gratuit, c’est toi le produit ».
Aujourd’hui, c’est un lieu commun de croire que le péché originel du capitalisme de surveillance a été l’arrivée des médias gratuits financés par la publicité. Le raisonnement était le suivant : les entreprises qui faisaient payer l’accès ne pouvaient pas « concurrencer les médias gratuits » et elles étaient donc éjectées du marché. Les concurrents soutenus par la publicité, quant à eux, ont déclaré ouverte la saison de la chasse aux données de leurs utilisateurs dans la perspective d’améliorer le ciblage de leurs publicités, gagner plus d’argent et faire appel aux stratégies les plus étonnantes pour générer davantage de clics sur ces publicités. Si seulement nous nous mettions à payer à nouveau, nous aurions un meilleur système d’information, plus responsable, plus sobre et qui serait vertueux pour la démocratie.

Mais la dégradation de la qualité des actualités a précédé de loin l’avènement des informations en ligne financées par la pub. Bien avant l’ère des journaux en ligne, les lois antitrust appliquées de façon laxiste avaient ouvert la porte à des vagues sans précédent de restructuration et de dégraissage dans les salles de rédaction. Des journaux rivaux ont fusionné, des journalistes et des vendeurs d’espace publicitaire ont été virés, des espaces de bureaux ont été vendus ou loués, laissant les entreprises criblées de dettes à cause d’un système de rachat par endettement et de bénéfices distribués aux nouveaux propriétaires. En d’autres termes, ce n’était pas simplement le déclin des petites annonces, longtemps considéré comme responsable du déclin des journaux, qui a rendu ces entreprises de presse incapables de s’adapter à Internet, c’était la monopolisation.

Pendant que les entreprises de presse débarquaient en ligne, les revenus de la publicité se sont mis à décroître, alors même que le nombre d’internautes (et donc un lectorat en ligne potentiel) augmentait. Cette évolution était due à la consolidation du marché des ventes de publicités, Google et Facebook étaient devenus un duopole qui gagnait chaque année davantage d’argent avec la pub, tout en payant de moins en moins les éditeurs dont le travail apparaissait à côté des publicités. Le monopole a créé un marché d’acheteurs pour la diffusion publicitaire et Facebook et Google en étaient les maîtres et les gardiens.

Les services payants continuent d’exister aux côtés des services gratuits – soucieux qu’ils sont d’empêcher les internautes de contourner leur page de paiement ou de partager des médias payants – ils exercent le plus grand contrôle sur leurs clients. iTunes d’Apple et les App stores sont des services payants, mais pour maximiser leur rentabilité, Apple doit verrouiller ses plateformes pour que des tiers ne puissent pas créer de logiciels compatibles sans autorisation. Ces verrous permettent à l’entreprise d’exercer à la fois un contrôle éditorial (qui permet de rejeter des contenus politiques controversés) et technologique, y compris sur la possibilité de réparer le matériel qu’elle fabrique. Si nous redoutons que les produits financés par la pub privent les gens de leur droit à l’autodétermination en utilisant des techniques de persuasion pour orienter leurs décisions d’achat dans une direction ou dans une autre, alors le contrôle quasi total d’une seule entreprise sur la décision de savoir qui va vous vendre le logiciel, les pièces détachées et les services pour votre iPhone devrait sacrément nous inquiéter.

Nous ne devrions pas nous préoccuper uniquement du paiement et du contrôle : l’idée que payer améliore la situation est également fausse et dangereuse. Le faible taux de réussite de la publicité ciblée signifie que les plateformes doivent vous inciter à « vous engager » fortement envers les messages publicitaires pour générer suffisamment de pages vues et préserver ainsi leurs profits. Comme indiqué plus haut, pour accroître l’engagement, les plateformes comme Facebook utilisent l’apprentissage automatique afin de deviner quels messages seront les plus incendiaires et feront tout pour les afficher sous vos yeux dès que vous vous connectez, pour vous faire réagir par la haine et vous disputer avec les gens.

Peut-être que payer réglerait ce problème, selon ce raisonnement. Si les plateformes pouvaient être économiquement viables même si vous arrêtiez de cliquer dessus une fois votre curiosité intellectuelle et sociale assouvie, alors elles n’auraient aucune raison de vous mettre en colère avec leurs algorithmes pour obtenir plus de clics, n’est-ce pas ?

Cet argument est peut-être valable, mais il ne tient toujours pas compte du contexte économique et politique plus large de ces plateformes et du monde qui leur a permis de devenir si dominantes.

Les plateformes sont mondiales parce qu’elles sont des monopoles, et elles sont des monopoles parce que nous avons vidé de leur substance nos règles anti-monopoles les plus importantes et les plus fiables. L’antitrust a été neutralisé car c’était la condition nécessaire pour que le projet de rendre les riches plus riches encore réussisse. La plupart des habitants de la planète ont une valeur nette négative, et même la classe moyenne en recul est dans un état précaire, en manque d’épargne pour la retraite, d’assurances contre les catastrophes sanitaires et de garanties contre les catastrophes climatiques et technologiques.
Dans ce monde féroce et inégalitaire, payer n’améliore pas la situation. Cela ne fait que la rendre hors de prix pour la plupart des gens. Payer pour le produit, c’est super quand vous avez les moyens.

Si vous pensez que les bulles de filtres actuelles constituent un problème pour notre monde, imaginez ce qu’elles seraient si les riches fréquentaient le marché des idées à l’athénienne, où il faudrait payer pour entrer pendant que les autres vivent dans des espaces en ligne subventionnés par des bienfaiteurs aisés et ravis de créer des espaces de discussion dans lesquels le « règlement intérieur » interdit de contester le système. Imaginez si les riches se retiraient de Facebook, et qu’au lieu de diffuser des publicités qui rapportent de l’argent à ses actionnaires, Facebook devienne un projet loufoque de milliardaire, visant aussi à s’assurer que personne ne se demande jamais s’il est juste que seuls les milliardaires aient le droit de se retrouver dans les derniers recoins d’internet.

Derrière l’idée de payer pour avoir accès se cache la conviction que les marchés libres permettront de remédier au dysfonctionnement des Géants de la tech. Après tout, quand les gens ont une opinion sur la surveillance, celle-ci est souvent mauvaise, et plus la surveillance d’une personne est longue et approfondie, moins elle a tendance à plaire. Il en va de même pour le verrouillage : si l’encre Hewlett-Packard ou l’App Store Apple étaient si géniales que ça, les mesures techniques pour empêcher les utilisateurs de choisir un produit concurrent seraient inutiles. Ces parades techniques existent pour la simple et bonne raison que ces entreprises ne croient pas que leurs clients se soumettraient spontanément à leurs conditions, et qu’elles veulent les empêcher d’aller voir ailleurs.

Les défenseurs des marchés louent leur capacité à agréger les connaissances diffusées par les acheteurs et les vendeurs dans la société toute entière, par le biais d’informations sur la demande, sur les prix, etc. L’argument en faveur d’un capitalisme de surveillance « voyou » voudrait que les techniques de persuasion basées sur l’apprentissage automatique faussent les décisions des consommateurs, ce qui conduirait à des informations faussées – les consommateurs n’achètent pas ce qu’ils préfèrent, mais ce qu’ils sont amenés à préférer. Il s’ensuit des pratiques monopolistiques de verrouillage qui relèvent davantage encore d’un « capitalisme voyou » et qui restreignent encore plus la liberté de choix du consommateur.

La rentabilité de n’importe quelle entreprise est limitée par la possibilité que ses clients aillent voir ailleurs. La surveillance et le verrouillage sont tous les deux des anti-fonctionnalités qu’aucun client ne désire. Mais les monopoles peuvent se mettre les régulateurs dans la poche, écraser la concurrence, s’insinuer dans la vie privée de leurs clients et pousser les gens à « choisir » leurs services qu’ils le veuillent ou non. Que c’est bon d’être odieux quand il n’existe pas d’alternative.
Au final, la surveillance et le verrouillage sont simplement des stratégies commerciales que peuvent choisir les monopoles.

Les entreprises de surveillance comme Google sont parfaitement capables de déployer des technologies de verrouillage. Il suffit de regarder les clauses de la coûteuse licence d’Android qui obligent les fabricants d’appareils à les intégrer dans la suite d’applications Google. Et les entreprises de verrouillage comme Apple sont parfaitement capables de soumettre leurs utilisateurs à la surveillance pour satisfaire Pékin et ainsi préserver un accès commercial au marché chinois. Les monopoles sont peut-être composés de personnes éthiques et respectables, mais en tant qu’institutions, ils ne comptent pas parmi vos amis : ils feront tout ce qu’ils peuvent pour maximiser leurs profits, et plus ils auront de monopole, mieux ils tireront leur épingle du jeu.

Une fenêtre de tir « écologique » pour briser les trusts

Si nous voulons briser l’emprise mortelle des Géants du Web sur nos vies numériques, nous allons devoir combattre les monopoles. Cela peut paraître banal et ringard, un truc qui vient de l’ère du New Deal, alors que faire cesser l’utilisation automatique des données comportementales ressemble au scénario d’un roman cyberpunk très cool.
En revanche, il semble que nous ayons oublié comment on brise des monopoles. Il existe un consensus des deux côtés de l’Atlantique pour considérer que le démantèlement des entreprises est au mieux une histoire de fous, susceptible d’embourber les juges fédéraux dans des années de procédure judiciaire, et au pire contre-productif car il grignote les « avantages des consommateurs » dont les économies d’échelle sont colossales.

Mais les briseurs de trusts ont autrefois parcouru le pays dans tous les sens, en brandissant des livres de droit, terrorisant les magnats du vol organisé et réduisant en pièces l’illusion de l’emprise toute-puissante des monopoles sur notre société. L’ère de la lutte antitrust ne pouvait pas commencer sans la volonté politique pour le faire, avant que le peuple réussisse à convaincre les politiciens qu’ils les soutiendraient dans leur affrontement contre les hommes les plus riches et les plus puissants du monde.

Pouvons-nous retrouver cette volonté politique ?
James Boyle, un universitaire spécialisé dans le copyright, a analysé comment le terme « écologie » a marqué un tournant dans le militantisme pour l’environnement. Avant l’adoption de ce terme, les personnes qui voulaient protéger les populations de baleines ne se considéraient pas forcément comme combattant pour la même cause que celles qui voulaient protéger la couche d’ozone ou lutter contre la pollution de l’eau ou les pluies acides.

Mais le terme « écologie » a regroupé ces différentes causes en un seul mouvement, dont les membres se sont montrés solidaires les uns des autres. Ceux qui se souciaient de la pollution de l’eau ont signé les pétitions diffusées par ceux qui voulaient mettre fin à la chasse à la baleine, et ceux qui s’opposaient à la chasse à la baleine ont défilé aux côtés de ceux qui réclamaient des mesures contre les pluies acides. Cette union en faveur d’une cause commune a radicalement changé la dynamique de l’environnementalisme et ouvert la voie à l’activisme climatique actuel et au sentiment que la préservation de l’habitabilité de la planète Terre relève d’un devoir commun.

Je crois que nous sommes à l’aube d’un nouveau moment « écologique » consacré à la lutte contre les monopoles. Après tout, la technologie n’est pas la seule industrie concentrée, ni même la plus concentrée.
On trouve des partisans du démantèlement des trusts dans tous les secteurs de l’économie. On trouve partout des personnes abusées par des monopolistes qui ont ruiné leurs finances, leur santé, leur vie privée, leur parcours et la vie de leurs proches. Ces personnes partagent la même cause que ceux qui veulent démanteler les Géants de la tech et ont les mêmes ennemis. Lorsque les richesses sont concentrées entre les mains d’un petit nombre, presque toutes les grandes entreprises ont des actionnaires en commun.

La bonne nouvelle, c’est qu’avec un peu de travail et de coordination, nous disposons d’une volonté politique largement suffisante pour démanteler les Géants de la tech et tous les secteurs qui y sont concentrés. Commençons par Facebook, puis nous nous attaquerons à AT&T/WarnerMedia [groupes étatsuniens, comparable à Orange et Vivendi respectivement].
La mauvaise nouvelle, c’est que la majeure partie de ce que nous entreprenons aujourd’hui pour dompter les Géants de la tech plutôt que de démanteler les grandes entreprises, nous empêchera de les démanteler demain.

Actuellement, la concentration des Géants de la tech signifie que leur inaction en matière de harcèlement, par exemple, place leurs utilisateurs devant un choix impossible : s’absenter du débat public en quittant Twitter, par exemple, ou subir des agressions ignobles en permanence. La collecte et la conservation excessives de données par les Géants de la tech se traduisent par un odieux vol d’identité. Et leur inaction face au recrutement d’extrémistes signifie que les partisans de la suprématie blanche qui diffusent leurs fusillades en direct peuvent toucher un public de plusieurs milliards de personnes. La concentration des technologies et celle des médias implique une diminution des revenus des artistes, alors que les revenus générés par les créations de ces derniers augmentent.

Pourtant, les gouvernements confrontés à ces problèmes aboutissent tous inévitablement à la même solution : confier aux Géants de la tech le soin de contrôler leurs utilisateurs et de les rendre responsables de leurs mauvais comportements. Vouloir obliger les Géants de la tech à utiliser des filtres automatisés pour tout bloquer, de la violation des droits d’auteur au trafic sexuel, en passant par l’extrémisme violent, implique que les entreprises technologiques devront consacrer des millions pour faire fonctionner des systèmes conformes.

Ces règles, comme la nouvelle directive européenne sur les droits d’auteur, la nouvelle réglementation australienne sur le terrorisme, la loi américaine FOSTA/SESTA sur le trafic sexuel et d’autres encore, signent l’arrêt de mort des petits concurrents émergents qui pourraient contester la domination des Géants de la tech, mais n’ont pas les moyens financiers des opérateurs historiques pour acquérir tous ces systèmes automatisés. Plus grave, elles fixent un plancher en deçà de ce que nous pouvons espérer imposer aux Géants de la tech.

C’est parce que toute initiative visant à démanteler les Géants de la tech et à réduire leur taille se heurte à une limite, celle qui consiste à ne pas la réduire trop sous peine de les empêcher de financer leurs activités, car investir dans ces filtres automatisés et sous-traiter la modération de contenu coûte cher. Il va déjà être difficile de séparer ces monstres chimériques fortement concentrés qui ont été assemblés les uns aux autres pour obtenir des bénéfices de monopoles. Il sera encore plus difficile de le faire tout en trouvant un moyen de combler le vide réglementaire créé si ces auto-régulateurs étaient soudain contraints de se retirer.

Laisser les plateformes atteindre leur taille actuelle leur a conféré une position dominante quasi irréversible. Les charger de missions publiques pour remédier aux pathologies créées par leur taille rend presque impossible la réduction de cette taille. Je répète, encore et encore, si les plateformes ne deviennent pas plus petites, elles deviendront plus grandes, et à mesure qu’elles grandiront, elles engendreront davantage de problèmes, ce qui entraînera une augmentation de leurs missions publiques et leur permettra de devenir plus grandes encore.

Nous pouvons essayer de réparer Internet en démantelant les Géants de la tech et en les privant des bénéfices de monopole, ou bien nous pouvons essayer de réparer les Géants de la tech en les obligeant à consacrer leurs bénéfices de monopole à la gouvernance. Mais nous ne pouvons pas faire les deux. Nous devons choisir entre un Internet dynamique et ouvert ou un Internet dominé et monopolisé, dirigé par les Géants de la tech contre lesquels nous nous battons en permanence pour les obliger à bien se comporter.

Make Big Tech small again

Briser les monopoles est difficile. Démanteler les grandes entreprises est coûteux et prend du temps. Tellement de temps que lorsque vous y êtes enfin parvenu, le monde a évolué et a rendu inutiles des années de contentieux. De 1969 à 1982, le gouvernement américain a engagé une procédure antitrust contre IBM en raison de sa position dominante sur le marché des ordinateurs centraux, mais elle a capoté en 1982 parce que les ordinateurs centraux étaient de plus en plus remplacés par des PC.

Il est beaucoup plus facile d’empêcher la concentration que de la corriger, et le rétablissement des contours traditionnels de la loi antitrust américaine empêchera, à tout le moins, toute nouvelle concentration. Cela signifie l’interdiction des fusions entre grandes entreprises, l’interdiction pour les grandes entreprises d’acquérir des concurrents émergents, et l’interdiction pour les plates-formes de concurrencer directement les entreprises qui dépendent de ces plates-formes.

Ces pouvoirs sont tous rédigés dans le langage clair et simple des lois antitrust américaines donc, en théorie, un futur président américain pourrait simplement ordonner à son procureur général de faire appliquer la loi telle qu’elle a été rédigée. Mais après des décennies d’« éducation » judiciaire qui vantait les bénéfices des monopoles, après que de nombreux gouvernements eurent rempli les tribunaux fédéraux de supporters des monopoles rémunérés à vie, pas sûr qu’une simple intervention administrative suffise.

Si les tribunaux contrarient le ministère de la Justice et le président, la prochaine étape serait le Congrès, qui pourrait éliminer les doutes sur la façon dont la loi antitrust devrait être appliquée aux États-Unis en adoptant de nouvelles lois qui reviennent à dire « Arrêtez ça. Nous savons tous ce que prévoit la loi Sherman. Robert Bork était un hurluberlu déjanté. Que les choses soient claires, on l’emmerde ». En d’autres termes, le problème des monopoles, c’est le monopole – la concentration du pouvoir entre les mains de quelques-uns, qui rogne notre droit à l’autodétermination. S’il y a un monopole, la loi veut qu’il disparaisse, point. Bien sûr, il faut se débarrasser des monopoles qui créent un « préjudice pour le consommateur » en augmentant les prix, mais il faut aussi se débarrasser des autres monopoles.

Mais cela ne fait qu’empêcher les choses d’empirer. Pour contribuer à les améliorer, nous allons devoir former des alliances avec d’autres militants du mouvement écologiste anti-monopole – ce serait un mouvement de pluralisme ou d’autodétermination – et prendre pour cibles les monopoles existants de chaque industrie avec des règles de démantèlement et de séparation structurelle qui empêcheraient par exemple la domination sans partage du géant Luxottica sur tout ce qui est optique et lunetterie, tant dans la vente que la fabrication. De façon significative, peu importe dans quel secteur industriel commencent les ruptures. Une fois qu’elles auront commencé, les actionnaires de tous les secteurs se mettront à regarder avec scepticisme leurs investissements dans les monopoles.

Lorsque que les briseurs de trusts feront leur entrée sur scène et commenceront à mener la vie dure aux monopolistes, le débat au sein des conseils d’administration des entreprises évoluera. Les personnes qui se seront toujours senties mal à l’aise face au monopole auront un nouvel argument puissant pour contrer leurs adversaires redoutables dans la hiérarchie de l’entreprise : « Si nous utilisons mes méthodes, nous gagnerons moins d’argent, si nous utilisons les vôtres, un juge nous infligera des amendes de plusieurs milliards et nous exposera aux moqueries et à la désapprobation générale. Donc, même si je reconnais qu’il serait vraiment génial de réaliser cette fusion, de verrouiller la concurrence, ou de racheter cette petite entreprise et de la faire disparaître avant qu’elle ne constitue une menace, nous ne devrions vraiment pas le faire – sauf à vouloir se livrer pieds et poings liés au département de la Justice et être trimballés sur la route des briseurs de trusts pendant les dix prochaines années ».

20 GOTO 10

Régler le problème de Géants de la tech va nécessiter de nombreuses itérations. Comme l’a écrit le cyber juriste Lawrence Lessig dans son ouvrage Code and Other Laws of Cyberspace (1999) [NdT : ouvrage non traduit en français], nos vies sont régies par quatre forces : la loi (ce qui est légal), le code (ce qui est technologiquement possible), les normes (ce qui est socialement acceptable) et les marchés (ce qui est rentable).

Si vous pouviez d’un coup de baguette magique obtenir du Congrès qu’il adopte demain une loi qui modifie la loi Sherman, vous pourriez utiliser les démantèlements à venir pour convaincre les investisseurs en capital-risque de financer les concurrents de Facebook, Google, Twitter et Apple qui attendent en coulisses après avoir subi une réduction de leur taille.

Mais pour amener le Congrès à agir, il faudra un virage normatif à 90 degrés, un mouvement de masse de personnes préoccupées par les monopoles et qui souhaitent les faire sauter.

Pour que les gens s’intéressent aux monopoles, il faudra des innovations technologiques qui leur permettent de voir à quoi pourrait ressembler un monde sans les Géants de la tech. Imaginez que quelqu’un crée un client tiers très apprécié (mais non autorisé) sur Facebook ou Twitter, qui freine le flux algorithmique anxiogène tout en vous permettant de parler à vos amis sans être espionné, quelque chose qui rendrait les médias sociaux plus sociables et moins toxiques. Imaginez maintenant que ce client soit fermé au cours d’une violente bataille juridique. Il est toujours plus facile de convaincre les gens qu’il faut agir pour sauver une chose qu’ils aiment que de les faire s’enthousiasmer à propos de quelque chose qui n’existe même pas encore.

Ni la technologie, ni la loi, ni le code, ni les marchés ne sont suffisants pour réformer les Géants de la tech. Mais l’un des concurrents rentables de ces derniers pourrait financer un mouvement législatif. Une réforme juridique peut encourager un fabricant à concevoir un meilleur outil. L’outil peut créer des clients pour une entreprise potentielle qui apprécie les avantages d’Internet mais qui veut obtenir ces outils sans passer par les Géants de la tech. Et cette entreprise peut obtenir un financement et consacrer une partie de ses bénéfices à la réforme juridique. 20 GOTO 10 (ou répétez l’opération autant de fois que nécessaire). Répétez l’opération, mais cette fois, allez plus loin ! Après tout, cette fois, vous commencez avec des adversaires des Géants de la tech plus faibles, un électorat qui comprend que les choses peuvent être améliorées, des concurrents des Géants de la tech qui contribueront à assurer leur propre avenir en finançant la réforme, et du code sur lequel d’autres programmeurs peuvent s’appuyer pour affaiblir encore plus les Géants de la tech.

L’hypothèse du capitalisme de surveillance, selon laquelle les produits des Géants de la tech fonctionnent vraiment aussi bien qu’ils le disent, et ça explique pourquoi c’est le bin’s partout, est trop simpliste sur la surveillance et encore plus sur le capitalisme. Les entreprises espionnent parce qu’elles croient à leurs propres baratin, elles le font aussi parce que les gouvernements les laissent faire, et parce que les avantages qu’elles tirent de l’espionnage sont tellement éphémères et minimes qu’elles doivent espionner toujours plus pour maintenir leur activité.
Et qu’est-ce qui fait que c’est le bin’s ? Le capitalisme.

Plus précisément, le monopole qui crée l’inégalité et l’inégalité qui crée le monopole. C’est une forme de capitalisme qui récompense les sociopathes qui détruisent l’économie réelle pour gonfler leurs résultats. Ils s’en sortent pour la même raison que les entreprises s’en sortent en espionnant : parce que nos gouvernements sont sous l’emprise à la fois d’une idéologie selon laquelle les monopoles sont tout à fait valables et aussi sous l’emprise de l’idée que dans un monde monopolistique, mieux vaut ne pas contrarier les monopoles.

La surveillance n’engendre pas un capitalisme dévoyé. Mais le capitalisme sans contrôle engendre la surveillance. La surveillance n’est pas malsaine parce qu’elle permet à certain de nous manipuler, elle est malsaine parce qu’elle réduit à néant notre capacité à être nous-mêmes, et parce qu’elle permet aux riches et aux puissants de découvrir qui réfléchit à la construction de guillotines et quelles crasses utiliser pour discréditer ces apprentis constructeurs avant même qu’ils n’arrivent à la scierie.

En profondeur

Avec tous les problèmes que posent les Géants de la tech, on pourrait être tenté de vouloir revenir à un monde dépourvu de technologie. Ne succombez pas à cette tentation.

La seule façon de résoudre notre problème avec les Géants de la tech est de le traiter en profondeur. Si notre avenir ne repose pas sur la haute technologie, ce sera parce que la civilisation s’est effondrée. Les Géants de la tech ont connecté un système nerveux planétaire pour l’ensemble de notre espèce, qui, avec les réformes et les changements de cap appropriés, peut nous aider à surmonter les défis existentiels auxquels sont confrontées notre espèce et notre planète. Il ne tient qu’à nous désormais de nous emparer des outils informatiques, en soumettant ce système nerveux électronique à un contrôle démocratique et transparent.

Je suis, au fond de moi et malgré ce que j’ai indiqué plus haut, un fervent partisan de la technologie. Pas dans le sens où il faudrait lui laisser le champ libre pour exercer son monopole sous prétexte qu’elle permet des « économies d’échelle » ou autre obscure particularité. Je suis partisan de la technologie parce que je crois qu’il est important de bien l’utiliser et que mal le faire serait une catastrophe absolue – et bien l’utiliser peut nous permettre de travailler tous ensemble pour sauver notre civilisation, notre espèce et notre planète.

 




Détruire le capitalisme de surveillance – 5

Voici la cinquième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les cinq premiers épisodes en un seul PDF de 50 pages ).

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang : Claire, Fabrice, goofy, Jums, Susyl, anonymes

Dignité et sanctuaire

Quand bien même nous exercerions un contrôle démocratique sur nos États et les forcerions à arrêter de piller les silos de données comportementales du capitalisme de surveillance, ce dernier continuera à nous maltraiter. Nous vivons une époque parfaitement éclairée par Zuboff. Son chapitre sur le sanctuaire – ce sentiment de ne pas être observé – est une magnifique ode à l’introspection, au calme, à la pleine conscience et à la tranquillité.

Quand nous sommes observé⋅e, quelque chose change. N’importe quel parent sait ce que cela signifie. Vous pouvez lever la tête de votre bouquin (ou plus vraisemblablement de votre téléphone) et observer votre enfant dans un état profond de réalisation de soi et d’épanouissement, un instant où il est en train d’apprendre quelque chose à la limite de ses capacités, qui demande une concentration intense. Pendant un court laps de temps, vous êtes sidéré⋅e, et vous observez ce moment rare et beau de concentration qui se déroule devant vos yeux, et puis votre enfant lève la tête, vous voit le regarder, et ce moment s’évanouit. Pour grandir, vous devez être vous-même et donner à voir votre moi authentique, c’est à ce moment que vous devenez vulnérable, tel un bernard-l’hermite entre deux coquilles.

Cette partie de vous, tendre et fragile, que vous exposez au monde dans ces moments-là, est bien trop délicate pour être révélée à autrui, pas même à une personne à laquelle vous faites autant confiance qu’un enfant à ses parents.

À l’ère numérique, notre moi authentique est inextricablement mêlé à de notre vie en ligne. Votre historique de recherche est un enregistrement en continu des questions que vous vous posez. Votre historique de géolocalisation est un registre des endroits que vous cherchiez et des expériences que vous avez vécues en ces lieux. Votre réseau social révèle les différentes facettes de votre personnalité ainsi que les gens avec qui vous êtes en contact.

Être observé pendant ces activités, c’est perdre le sanctuaire de votre moi authentique. Mais il y a une autre manière pour le capitalisme de surveillance de nous dérober notre capacité d’être véritablement nous-même : nous rendre anxieux. Ce capitalisme de surveillance n’est pas vraiment un rayon de contrôle mental, pas besoin de ça pour rendre quelqu’un anxieux. Après tout, l’anxiété est le synonyme d’agitation, et pour qu’une personne se sente agitée, il n’y a pas vraiment besoin de la secouer. Il suffit d’aiguillonner et de piquer et de notifier et de bourdonner autour et de bombarder de manière intermittente et juste assez aléatoire pour que notre système limbique ne puisse jamais vraiment s’y habituer.

Nos appareils et nos services sont polyvalents dans le sens où ils peuvent connecter n’importe quoi ou n’importe qui à n’importe quoi ou à n’importe qui d’autre, et peuvent aussi exécuter n’importe quel programme. Cela signifie que ces rectangles de distractions dans nos poches détiennent nos plus précieux moments avec nos proches, tout comme les communications les plus urgentes et les plus sensibles (de « je suis en retard, peux-tu aller chercher les gamins ? » jusqu’à « mauvaise nouvelle du docteur, il faut qu’on parle TOUT DE SUITE »), mais aussi les pubs pour les frigos et les messages de recrutement nazis.

À toute heure du jour ou de la nuit, nos poches sonnent, font voler en éclat notre concentration, détruisent le fragile maillage de nos réflexions quand nous avons besoin de penser des situations difficiles. Si vous enfermiez quelqu’un dans une cellule et que vous l’agitiez de la sorte, on appellerait ça de la torture par privation de sommeil, et ce serait considéré comme un crime de guerre par la Convention de Genève.

Affliger les affligés

Les effets de la surveillance sur notre capacité à être nous-mêmes ne sont pas les mêmes pour tout le monde. Certain⋅e⋅s d’entre nous ont la chance de vivre à une époque et dans un lieu où tous les faits les plus importants de leur vie sont socialement acceptés et peuvent être exposés au grand jour sans en craindre les conséquences sociales.

Mais pour beaucoup d’entre nous, ce n’est pas le cas. Rappelez-vous que, d’aussi loin qu’on s’en souvienne, de nombreuses façons d’être, considérées aujourd’hui comme socialement acceptables, ont donné lieu à de terribles condamnations sociales, voire à des peines d’emprisonnement. Si vous avez 65 ans, vous avez connu une époque où les personnes vivant dans des « sociétés libres » pouvaient être emprisonnées ou punies pour s’être livrées à des pratiques homosexuelles, pour être tombées amoureuses d’une personne dont la peau était d’une couleur différente de la leur, ou pour avoir fumé de l’herbe.

Aujourd’hui, non seulement ces pratiques sont dépénalisées dans une grande partie du monde, mais en plus, elles sont considérées comme normales, et les anciennes prohibitions sont alors vues comme des vestiges d’un passé honteux et regrettable.

Comment sommes-nous passés de la prohibition à la normalisation ? Par une activité privée et personnelle : les personnes dont l’homosexualité étaient secrète ou qui fumaient de l’herbe en secret, ou qui aimaient quelqu’un d’une couleur de peau différente de la leur en secret, étaient susceptibles de représailles si elles dévoilaient leur moi authentique. On les empêchait de défendre leur droit à exister dans le monde et à être en accord avec elles-mêmes. Mais grâce à la sphère privée, ces personnes pouvaient former des liens forts avec leurs amis et leurs proches qui ne partageaient pas leurs manières de vivre mal vues par la société. Elles avaient des conversations privées dans lesquelles elles se dévoilaient, elles révélaient leur moi authentique à leurs proches, puis les ralliaient à leur cause au fil des conversations.

Le droit de choisir le moment et la manière d’aborder ces conversations a joué un rôle fondamental dans le renversement des normes. C’est une chose de faire son coming out à son père au cours d’une sortie de pêche à l’écart du monde, c’en est une autre de tout déballer pendant le repas de Noël, en présence de son oncle raciste sur Facebook prêt à faire une scène.

Sans sphère privée, il est possible qu’aucun de ces changements n’aurait eu lieu et que les personnes qui en ont bénéficié auraient subi une condamnation sociale pour avoir fait leur coming out face à un monde hostile ou alors elles n’auraient jamais pu révéler leur moi authentique aux personnes qu’elles aiment.

Et donc, à moins que vous ne pensiez que notre société ait atteint la perfection sociale – et que vos petits-enfants vous demanderont dans 50 ans de leur raconter comment, en 2020, toutes les injustices ont été réparées et qu’il n’y avait plus eu de changement à apporter –, vous devez vous attendre à ce qu’en ce moment même figurent parmi vos proches des personnes, dont le bonheur est indissociable du vôtre, et dont le cœur abrite un secret qui les empêche toujours de dévoiler leur moi authentique en votre présence. Ces personnes souffrent et emporteront leur chagrin secret dans leur tombe, et la source de ce chagrin, ce sera les relations faussées qu’elles entretenaient avec vous.

Une sphère privée est nécessaire au progrès humain.

Toute donnée collectée et conservée finit par fuiter

L’absence de vie privée peut empêcher les personnes vulnérables d’exprimer leur moi authentique et limiter nos actions en nous privant d’un sanctuaire. Mais il existe un autre risque, encouru par tous et pas seulement par les personnes détenant un secret : la criminalité.

Les informations d’identification personnelle présentent un intérêt très limité pour contrôler l’esprit des gens, mais le vol d’identité – terme fourre-tout pour désigner toute une série de pratiques délictueuses graves, susceptibles de détruire vos finances, de compromettre votre intégrité personnelle, de ruiner votre réputation, voire de vous exposer à un danger physique – est en pleine expansion.

Les attaquants ne se limitent pas à utiliser des données issues de l’intrusion dans une seule et même source.

De nombreux services ont subi des violations qui ont révélé des noms, des adresses, des numéros de téléphone, des mots de passe, des préférences sexuelles, des résultats scolaires, des réalisations professionnelles, des démêlés avec la justice, des informations familiales, des données génétiques, des empreintes digitales et autres données biométriques, des habitudes de lecture, des historiques de recherche, des goûts littéraires, des pseudonymes et autres données sensibles. Les attaquants peuvent fusionner les données provenant de ces violations pour constituer des dossiers très détaillés sur des sujets choisis au hasard, puis utiliser certaines parties des données pour commettre divers délits.

Les attaquants peuvent, par exemple, utiliser des combinaisons de noms d’utilisateur et de mots de passe dérobés pour détourner des flottes entières de véhicules commerciaux équipés de systèmes de repérage GPS et d’immobilisation antivol, ou pour détourner des babyphones afin de terroriser les tout-petits en diffusant du contenu audio pornographique. Les attaquants utilisent les données divulguées pour tromper les opérateurs téléphoniques afin qu’ils leur communiquent votre numéro de téléphone, puis ils interceptent des codes d’authentification à deux facteurs par SMS pour pirater votre courrier électronique, votre compte bancaire ou vos portefeuilles de crypto-monnaie.

Les attaquants rivalisent de créativité pour trouver des moyens de transformer les données divulguées en armes. Ces données sont généralement utilisées pour pénétrer dans les entreprises afin d’accéder à davantage de données.

Tout comme les espions, les fraudeurs en ligne dépendent entièrement des entreprises qui collectent et conservent nos données à outrance. Les agences d’espionnage paient voire intimident parfois des entreprises pour avoir accès à leurs données, elles peuvent aussi se comporter comme des délinquants et dérober du contenu de bases de données d’entreprises.

La collecte excessive de données entraîne de graves conséquences sociales, depuis la destruction de notre moi authentique jusqu’au recul du progrès social, de la surveillance de l’État à une épidémie de cybercriminalité. La surveillance commerciale est également une aubaine pour les personnes qui organisent des campagnes d’influence, mais c’est le cadet de nos soucis.

L’exceptionnalisme technologique critique reste un exceptionnalisme technologique

Les géants de la tech ont longtemps pratiqué un exceptionnalisme technologique : cette idée selon laquelle ils ne devraient pas être soumis aux lois et aux normes du commun des mortels. Des devises comme celle de Facebook « Move fast and break things » [avancer vite et casser des choses, NdT] ont provoqué un mépris compréhensible envers ces entreprises à la rhétorique égoïste.

L’exceptionnalisme technologique nous a tous mis dans le pétrin. Il est donc assez ironique et affligeant de voir les critiques des géants de la tech commettre le même péché.

Les géants de la tech ne forment pas un « capitalisme voyou » qui ne peut être guéri par les remèdes traditionnels anti-monopole que sont le démantèlement des trusts (forcer les entreprises à se défaire des concurrents qu’elles ont acquis) et l’interdiction des fusions monopolistiques et autres tactiques anticoncurrentielles. Les géants de la tech n’ont pas le pouvoir d’utiliser l’apprentissage machine pour influencer notre comportement de manière si approfondie que les marchés perdent la capacité de punir les mauvais acteurs et de récompenser les concurrents vertueux. Les géants de la tech n’ont pas de rayon de contrôle mental qui réécrit les règles, si c’était le cas, nous devrions nous débarrasser de notre vieille boîte à outils.

Cela fait des siècles que des gens prétendent avoir mis au point ce rayon de contrôle mental et cela s’est toujours avéré être une arnaque, même si parfois les escrocs se sont également arnaqués entre eux.

Depuis des générations, le secteur de la publicité améliore constamment sa capacité à vendre des services publicitaires aux entreprises, tout en ne réalisant que des gains marginaux sur la vente des produits de ces entreprises. La complainte de John Wanamaker selon laquelle « La moitié de l’argent que je dépense en publicité est gaspillée, mais je ne sais pas quelle moitié » témoigne du triomphe des directeurs de la publicité qui ont réussi à convaincre Wanamaker que la moitié seulement de ce qu’il dépense était gaspillée.

L’industrie technologique a fait d’énormes progrès dans la capacité à convaincre les entreprises qu’elles sont douées pour la publicité, alors que leurs améliorations réelles en matière de publicité, par opposition au ciblage, ont été plutôt modestes. La vogue de l’apprentissage machine – et l’invocation mystique de l’« intelligence artificielle » comme synonyme de techniques d’inférence statistique directe – a considérablement renforcé l’efficacité du discours commercial des géants de la tech, car les spécialistes du marketing ont exploité le manque de connaissance technique des clients potentiels pour s’en tirer avec énormément de promesses et peu de résultats.

Il est tentant de penser que si les entreprises sont prêtes à déverser des milliards dans un projet, celui-ci doit être bon. Pourtant, il arrive souvent que cette règle empirique nous fasse faire fausse route. Par exemple, on n’a pratiquement jamais entendu dire que les fonds d’investissement surpassent les simples fonds indiciels, et les investisseurs qui confient leur argent à des gestionnaires de fonds experts s’en sortent généralement moins bien que ceux qui confient leur épargne à des fonds indiciels. Mais les fonds gérés représentent toujours la majorité de l’argent investi sur les marchés, et ils sont soutenus par certains des investisseurs les plus riches et les plus pointus du monde. Leur vote de confiance dans un secteur aussi peu performant est une belle leçon sur le rôle de la chance dans l’accumulation de richesses, et non un signe que les fonds de placement sont une bonne affaire.

Les affirmations du système de contrôle mental des géants de la tech laissent à penser que cette pratique est une arnaque. Par exemple, avec le recours aux traits de personnalité des « cinq grands » comme principal moyen d’influencer les gens, même si cette théorie des cinq grands n’est étayée par aucune étude à grande échelle évaluée par des pairs, et qu’elle est surtout l’apanage des baratineurs en marketing et des psychologues pop.

Le matériel promotionnel des géants de la tech prétend aussi que leurs algorithmes peuvent effectuer avec précision une « analyse des sentiments » ou détecter l’humeur des gens à partir de leurs « micro-expressions », mais il s’agit là d’affirmations marketing et non scientifiques. Ces méthodes n’ont pas été testées par des scientifiques indépendants, et lorsqu’elles l’ont été, elles se sont révélées très insuffisantes. Les micro-expressions sont particulièrement suspectes car il a été démontré que les entreprises spécialisées dans la formation de personnes pour les détecter sont moins performantes que si on laissait faire le hasard.

Les géants de la tech ont été si efficaces pour commercialiser leurs soi-disant super-pouvoirs qu’il est facile de croire qu’elles peuvent commercialiser tout le reste avec la même habileté, mais c’est une erreur de croire au baratin du marketing. Aucune déclaration d’une entreprise sur la qualité de ses produits n’est évidemment impartiale. Le fait que nous nous méfions de tout ce que disent les géants de la tech sur le traitement des données, le respect des lois sur la protection de la vie privée, etc. est tout à fait légitime, car pourquoi goberions-nous la littérature marketing comme s’il s’agissait d’une vérité d’évangile ? Les géants de la tech mentent sur à peu près tout, y compris sur le fonctionnement de leurs systèmes de persuasion alimentés par l’apprentissage automatique.

Ce scepticisme devrait imprégner toutes nos évaluations des géants de la tech et de leurs capacités supposées, y compris à la lecture attentive de leurs brevets. Zuboff confère à ces brevets une importance énorme, en soulignant que Google a revendiqué de nouvelles capacités de persuasion dans ses dépôts de brevets. Ces affirmations sont doublement suspectes : d’abord parce qu’elles sont très intéressées, et ensuite parce que le brevet lui-même est notoirement une invitation à l’exagération.

Les demandes de brevet prennent la forme d’une série de revendications et vont des plus étendues aux plus étroites. Un brevet typique commence par affirmer que ses auteurs ont inventé une méthode ou un système permettant de faire absolument tout ce qu’il est possible d’imaginer avec un outil ou un dispositif. Ensuite, il réduit cette revendication par étapes successives jusqu’à ce que nous arrivions à l’« invention » réelle qui est le véritable objet du brevet. L’espoir est que la personne qui passe en revue les demandes de brevets – qui est presque certainement surchargée de travail et sous-informée – ne verra pas que certaines (ou toutes) ces revendications sont ridicules, ou du moins suspectes, et qu’elle accordera des prétentions plus larges du brevet. Les brevets portant sur des choses non brevetables sont tout de même très utiles, car ils peuvent être utilisés contre des concurrents qui pourraient accorder une licence sur ce brevet ou se tenir à l’écart de ses revendications, plutôt que de subir le long et coûteux processus de contestation.

De plus, les brevets logiciels sont couramment accordés même si le déposant n’a aucune preuve qu’il peut faire ce que le brevet prétend. C’est-à-dire que vous pouvez breveter une « invention » que vous n’avez pas réellement faite et que vous ne savez pas comment faire.

Avec ces considérations en tête, il devient évident que le fait qu’un Géant de la tech ait breveté ce qu’il qualifie de rayon efficace de contrôle mental ne permet nullement de savoir si cette entreprise peut effectivement contrôler nos esprits.

Les géants de la tech collectent nos données pour de nombreuses raisons, y compris la diminution du rendement des stocks de données existants. Mais de nombreuses entreprises technologiques collectent également des données en raison d’une croyance exceptionnaliste erronée aux effets de réseau des données. Les effets de réseau se produisent lorsque chaque nouvel utilisateur d’un système augmente sa valeur. L’exemple classique est celui des télécopieurs [des fax NdT] : un seul télécopieur ne sert à rien, deux télécopieurs sont d’une utilité limitée, mais chaque nouveau télécopieur mis en service après le premier double le nombre de liaisons possibles de télécopie à télécopie.

Les données exploitées pour les systèmes prédictifs ne produisent pas nécessairement ces bénéfices. Pensez à Netflix : la valeur prédictive des données extraites d’un million d’utilisateurs anglophones de Netflix n’est guère améliorée par l’ajout des données de visualisation d’un utilisateur supplémentaire. La plupart des données que Netflix acquiert après ce premier échantillon minimum viable font double emploi avec des données existantes et ne produisent que des gains minimes. En attendant, le recyclage des modèles avec de nouvelles données devient plus cher à mesure que le nombre de points de données augmente, et les tâches manuelles comme l’étiquetage et la validation des données ne deviennent pas moins chères lorsqu’on augmente l’ordre de grandeur.

Les entreprises font tout le temps la course aux modes au détriment de leurs propres profits, surtout lorsque ces entreprises et leurs investisseurs ne sont pas motivés par la perspective de devenir rentables mais plutôt par celle d’être rachetés par un Géant de la tech ou d’être introduits en Bourse. Pour ces entreprises, cocher des cases à la mode comme « collecte autant de données que possible » pourrait permettre d’obtenir un meilleur retour sur investissement que « collecte une quantité de données adaptée à l’entreprise ».

C’est un autre dommage causé par l’exceptionnalisme technologique : la croyance selon laquelle davantage de données produit toujours plus de profits sous la forme de plus d’informations qui peuvent être traduites en de meilleurs rayons de contrôle mental. Cela pousse les entreprises à collecter et à conserver des données de manière excessive, au-delà de toute rationalité. Et comme les entreprises se comportent de manière irrationnelle, bon nombre d’entre elles vont faire faillite et devenir des navires fantômes dont les cales sont remplies de données qui peuvent nuire aux gens de multiples façons, mais dont personne n’est plus responsable. Même si les entreprises ne font pas faillite, les données qu’elles collectent sont maintenues en-deça de la sécurité minimale viable – juste assez de sécurité pour maintenir la viabilité de l’entreprise en attendant d’être rachetées par un Géant de la tech, un montant calculé pour ne pas dépenser un centime de trop pour la protection des données.

Comment les monopoles, et non le contrôle de la pensée, conduisent à la surveillance capitaliste : le cas de Snapchat

Pendant la première décennie de son existence, Facebook est entré en concurrence avec les réseaux sociaux de l’époque (Myspace, Orkut, etc) en se présentant comme l’alternative respectant de la vie privée. De fait, Facebook a justifié son jardin clos, qui permet aux utilisateurs d’y amener des données du Web, mais empêche les services tels que Google Search d’indexer et de mémoriser les pages Facebook, en tant que mesure de respect de la vie privée qui protège les utilisateurs des heureux gagnants de la bataille des réseaux sociaux comme Myspace.

En dépit des fréquentes promesses disant qu’il ne collecterait ou n’analyserait jamais les données de ses utilisateurs, Facebook a lancé à intervalles réguliers des initiatives exactement dans ce but, comme le sinistre Beacon tool, qui vous espionne lorsque vous surfez sur le Web puis ajoute vos activités sur le web à votre timeline publique, permettant à vos amis de surveiller vos habitudes de navigation. Beacon a suscité une révolte des utilisateurs. À chaque fois, Facebook a renoncé à ses actions de surveillance, mais jamais complètement ; inévitablement, le nouveau Facebook vous surveillera plus que l’ancien Facebook, mais moins que le Facebook intermédiaire qui suit le lancement d’un nouveau produit ou service.

Le rythme auquel Facebook a augmenté ses efforts de surveillance semble lié au climat compétitif autour de Facebook. Plus Facebook avait de concurrents, mieux il se comportait. À chaque fois qu’un concurrent majeur s’est effondré, le comportement de Facebook s’est notablement dégradé.

Dans le même temps, Facebook a racheté un nombre prodigieux d’entreprises, y compris une société du nom de Onavo. À l’origine, Onavo a créé une application mobile pour suivre l’évolution de la batterie. Mais les permissions que demandaient Onavo étaient telles que l’appli était capable de recueillir de façon très précise l’intégralité de ce que les utilisateurs font avec leurs téléphones, y compris quelles applis ils utilisent et comment.

Avec l’exemple d’Onavo, Facebook a découvert qu’il était en train de perdre des parts de marché au profit de Snapchat, une appli qui, comme Facebook une décennie plus tôt, se vend comme l’alternative qui respecte la vie privée par rapport au statu quo . À travers Onavo, Facebook a pu extraire des données des appareils des utilisateurs de Snapchat, que ce soient des utilisateurs actuels ou passés. Cela a poussé Facebook à racheter Instagram, dont certaines fonctionnalités sont concurrentes de Snapchat, et a permis à Facebook d’ajuster les fonctionnalités d’Instagram ainsi que son discours marketing dans le but d’éroder les gains de Snapchat et s’assurer que Facebook n’aurait pas à faire face aux pressions de la concurrence comme celles subies par le passé par Myspace et Orkut.

La manière dont Facebook a écrasé Snapchat révèle le lien entre le monopole et le capitalisme de surveillance. Facebook a combiné la surveillance avec une application laxiste des lois antitrust pour repérer de loin la menace de la concurrence par Snapchat et pour prendre des mesures décisives à son encontre. Le capitalisme de surveillance de Facebook lui a permis d’éviter la pression de la concurrence avec des tactiques anti-compétitives. Les utilisateurs de Facebook veulent toujours de la confidentialité, Facebook n’a pas utilisé la surveillance pour les convaincre du contraire, mais ils ne peuvent pas l’obtenir car la surveillance de Facebook lui permet de détruire tout espoir d’émergence d’un rival qui lui fait concurrence sur les fonctionnalités de confidentialité.

Un monopole sur vos amis

Un mouvement de décentralisation a essayé d’éroder la domination de Facebook et autres entreprises des géants de la tech en proposant des alternatives sur le Web indépendant (indieweb) : Mastodon en alternative à Twitter, Diaspora en alternative à Facebook, etc, mais ces efforts ont échoué à décoller.

Fondamentalement, chacun de ces services est paralysé par le même problème : tout utilisateur potentiel d’une alternative de Facebook ou Twitter doit convaincre tous ses amis de le suivre sur une alternative décentralisée pour pouvoir continuer à avoir les bénéfices d’un média social. Pour beaucoup d’entre nous, la seule raison pour laquelle nous avons un compte Facebook est parce que nos amis ont des comptes Facebook, et la raison pour laquelle ils ont des comptes Facebook est que nous avons des comptes Facebook.

Tout cela a contribué à faire de Facebook, et autres plateformes dominantes, des « zones de tir à vue » dans lesquelles aucun investisseur ne financera un nouveau venu.

Et pourtant, tous les géants d’aujourd’hui sont apparus malgré l’avantage bien ancré des entreprises qui existaient avant eux. Pour comprendre comment cela a été possible, il nous faut comprendre l’interopérabilité et l’interopérabilité antagoniste.

Le gros problème de nos espèces est la coordination.

L’« interopérabilité » est la capacité qu’ont deux technologies à fonctionner l’une avec l’autre : n’importe qui peut fabriquer un disque qui jouera sur tous les lecteurs de disques, n’importe qui peut fabriquer un filtre que vous pourrez installer sur la ventilation de votre cuisinière, n’importe qui peut fabriquer l’essence pour votre voiture, n’importe qui peut fabriquer un chargeur USB pour téléphone qui fonctionnera dans votre allume-cigare, n’importe qui peut fabriquer une ampoule qui marchera dans le culot de votre lampe, n’importe qui peut fabriquer un pain qui grillera dans votre grille-pain.

L’interopérabilité est souvent une source d’innovation au bénéfice du consommateur : Apple a fabriqué le premier ordinateur personnel viable commercialement, mais des millions de vendeurs de logiciels indépendants ont fait des programmes interopérables qui fonctionnaient sur l’Apple II Plus. La simple antenne pour les entrées analogiques à l’arrière des téléviseurs a d’abord permis aux opérateurs de câbles de se connecter directement aux télévisions, puis ont permis aux entreprises de consoles de jeux et ensuite aux ordinateurs personnels d’utiliser une télévision standard comme écran. Les prises téléphoniques RJ11 standardisées ont permis la production de téléphones par divers vendeurs avec divers formes, depuis le téléphone en forme de ballon de foot reçu en cadeau d’abonnement de Sports Illustrated, aux téléphones d’affaires avec haut-parleurs, mise en attente, et autres, jusqu’aux répondeurs et enfin les modems, ouvrant la voie à la révolution d’Internet.

On utilise souvent indifféremment « interopérabilité » et « standardisation », qui est le processus pendant lequel les fabricants et autres concernés négocient une liste de règles pour l’implémentation d’une technologie, comme les prises électriques de vos murs, le bus de données CAN utilisé par le système de votre voiture, ou les instructions HTML que votre navigateur internet interprète.

Mais l’interopérabilité ne nécessite pas la standardisation, en effet la standardisation émerge souvent du chaos de mesures d’interopérabilité ad hoc. L’inventeur du chargeur USB dans l’allume-cigare n’a pas eu besoin d’avoir la permission des fabricants de voitures ou même des fabricants des pièces du tableau de bord. Les fabricants automobiles n’ont pas mis en place des contre-mesures pour empêcher l’utilisation de ces accessoires d’après-vente par leurs consommateurs, mais ils n’ont pas non plus fait en sorte de faciliter la vie des fabricants de chargeurs. Il s’agit d’une forme d’« interopérabilité neutre ».

Au-delà de l’interopérabilité neutre, il existe l’« interopérabilité antagoniste ». C’est quand un fabricant crée un produit qui interagit avec le produit d’un autre fabricant en dépit des objections du deuxième fabricant, et cela même si ça nécessite de contourner un système de sécurité conçu pour empêcher l’interopérabilité.

Le type d’interopérabilité antagoniste le plus usuel est sans doute les cartouches d’encre d’imprimantes par des fournisseurs tiers. Les fabricants d’imprimantes affirment qu’ils vendent les imprimantes en-dessous de leur coût et que leur seul moyen de récupérer les pertes est de se constituer une marge élevée sur les encres. Pour empêcher les propriétaires d’imprimantes d’acheter leurs cartouches ailleurs, les entreprises d’imprimantes appliquent une série de systèmes de sécurité anti-consommateurs qui détectent et rejettent les cartouches re-remplies ou par des tiers.

Les propriétaires d’imprimantes quant à eux défendent le point de vue que HP et Epson et Brother ne sont pas des œuvres caritatives et que les consommateurs de leurs produits n’ont aucune obligation à les aider à survivre, et donc que si ces entreprises choisissent de vendre leurs produits à perte, il s’agit de leur choix stupide et à eux d’assumer les conséquences. De même, les compétiteurs qui fabriquent des cartouches ou les re-remplissent font remarquer qu’ils ne doivent rien aux entreprises d’imprimantes, et que le fait qu’ils érodent les marges de ces entreprises est le problème de celles-ci et non celui de leurs compétiteurs. Après tout, les entreprises d’imprimantes n’ont aucun scrupule à pousser un re-remplisseur à fermer boutique, donc pourquoi est-ce que les re-remplisseurs devraient se soucier de la bonne santé économique des entreprises d’imprimantes ?

L’interopérabilité antagoniste a joué un rôle hors normes dans l’histoire de l’industrie tech : depuis la création du « alt.* » dans l’architecture de Usenet (qui a commencé à l’encontre des souhaits des responsables de Usenet et qui s’est développé au point d’être plus important que tout le Usenet combiné) à la guerre des navigateurs (lorsque Netscape et Microsoft ont dépensé d’énormes ressources en ingénierie pour faire en sorte que leur navigateur soit incompatible avec les fonctionnalités spéciales et autres peccadilles de l’autre) à Facebook (dont le succès a entre autres été dû au fait qu’il a aidé ses nouveaux utilisateurs en leur permettant de rester en contact avec les amis qu’ils ont laissés sur Myspace parce que Facebook leur a fourni un outil pour s’emparer des messages en attente sur Myspace et les importer sur Facebook, créant en pratique un lecteur Myspace basé sur Facebook).

Aujourd’hui, la validation par le nombre est considérée comme un avantage inattaquable. Facebook est là où tous vos amis sont, donc personne ne peut fonder un concurrent à Facebook. Mais la compatibilité antagoniste retourne l’avantage concurrentiel : si vous êtes autorisés à concurrencer Facebook en proposant un outil qui importe les messages en attente sur Facebook de tous vos utilisateurs dans un environnement qui est compétitif sur des terrains que Facebook ne pourra jamais atteindre, comme l’élimination de la surveillance et des pubs, alors Facebook serait en désavantage majeur. Vous aurez rassemblé tous les potentiels ex-utilisateurs de Facebook sur un unique service facile à trouver. Vous les auriez éduqués sur la façon dont un service Facebook-like fonctionne et quels sont ses potentiels avantages, et vous aurez fourni un moyen simple aux utilisateurs mécontents de Facebook pour dire à leurs amis où ils peuvent trouver un meilleur traitement.

L’interopérabilité antagoniste a été la norme pendant un temps et une contribution clef à une scène tech dynamique et vibrante, mais à présent elle est coincée derrière une épaisse forêt de lois et règlements qui ajoutent un risque légal aux tactiques éprouvées de l’interopérabilité antagoniste. Ces nouvelles règles et les nouvelles interprétations des règles existantes signifient qu’un potentiel « interopérateur » antagoniste aura besoin d’échapper aux réclamations de droits d’auteurs, conditions de service, secret commercial, ingérence et brevets.

En l’absence d’un marché concurrentiel, les faiseurs de lois ont délégué des tâches lourdes et gouvernementales aux sociétés de Big Tech, telles que le filtrage automatique des contributions des utilisateurs pour la violation des droits d’auteur ou pour des contenus terroristes et extrémistes ou pour détecter et empêcher le harcèlement en temps réel ou encore pour contrôler l’accès au contenu sexuel.

Ces mesures ont fixé une taille minimale à partir de laquelle on peut faire du Big Tech, car seules les très grandes entreprises peuvent se permettre les filtres humains et automatiques nécessaires pour se charger de ces tâches.

Mais ce n’est pas la seule raison pour laquelle rendre les plateformes responsables du maintien de l’ordre parmi leurs utilisateurs mine la compétition. Une plateforme qui est chargée de contrôler le comportement de ses utilisateurs doit empêcher de nombreuses techniques vitales à l’interopérabilité antagoniste de peur qu’elles ne contreviennent à ses mesures de contrôle. Par exemple si quelqu’un utilisant un remplaçant de Twitter tel que Mastodon est capable de poster des messages sur Twitter et de lire des messages hors de Twitter, il pourrait éviter les systèmes automatiques qui détectent et empêchent le harcèlement (tels que les systèmes qui utilisent le timing des messages ou des règles basées sur les IP pour estimer si quelqu’un est un harceleur).

Au point que nous sommes prêts à laisser les géants de la tech s’autocontrôler, plutôt que de faire en sorte que leur industrie soit suffisamment limitée pour que les utilisateurs puissent quitter les mauvaises plateformes pour des meilleures et suffisamment petites pour qu’une réglementation qui ferait fermer une plateforme ne détruirait pas l’accès aux communautés et données de milliards d’utilisateurs, nous avons fait en sorte que les géants de la tech soient en mesure de bloquer leurs concurrents et qu’il leur soit plus facile de demander un encadrement légal des outils pour bannir et punir les tentatives à l’interopérabilité antagoniste.

En définitive, nous pouvons essayer de réparer les géants de la tech en les rendant responsables pour les actes malfaisants de ses utilisateurs, ou bien nous pouvons essayer de réparer Internet en réduisant la taille de géants. Mais nous ne pouvons pas faire les deux. Pour pouvoir remplacer les produits des géants d’aujourd’hui, nous avons besoin d’éclaircir la forêt légale qui empêche l’interopérabilité antagoniste de façon à ce que les produits de demain, agiles, personnels, de petite échelle, puissent se fédérer sur les géants tels que Facebook, permettant aux utilisateurs qui sont partis à continuer à communiquer avec les utilisateurs qui ne sont pas encore partis, envoyant des vignes au-dessus du mur du jardin de Facebook afin que les utilisateurs piégés de Facebook puissent s’en servir afin de grimper aux murs et de s’enfuir, accédant au Web ouvert et global.

(à suivre)




Bilan des actions de Framasoft en 2020 (hors confinement)

Nos actions sont financées par vos dons, amplifiées par vos contributions et utiles parce que vous les partagez et vous en emparez. Nous voulions donc prendre le temps de poser ici un bilan des principales actions que nous avons menées en 2020.

Car même si l’année n’est pas encore tout à fait finie, on peut d’ores et déjà voir ce que notre association (35 membres, 10 salarié·es) a fait des ressources que vous nous confiez.

À noter :

Graver les libertés dans le code

Dans le monde numérique, le code fait loi : les personnes qui dirigent le code ont le pouvoir et la responsabilité de déterminer ce qu’il sera possible de faire, ce qui sera impossible.

Voilà pourquoi nous avons pris la responsabilité de développer quelques logiciels : dans le but d’expérimenter d’autres manières d’ouvrir des possibles, pour proposer des façons alternatives d’organiser nos échanges numériques.

Coder ces logiciels en les plaçant sous licence libre, cela nous permet de limiter cet énorme pouvoir sur le code (donc sur ce qui fait loi dans nos écrans) grâce à des mécanismes de transparence, d’ouverture à la communauté et grâce à la possibilité de gouvernances alternatives.

Illustration de David Revoy – Licence : CC-By 4.0

Renforcer Framaforms pour faire rempart à Google Forms

Lorsque nous l’avons ouvert en 2016, nous n’imaginions pas que Framaforms, notre alternative à Google Forms, serait le service le plus utilisé de la campagne Dégooglisons Internet !

À l’époque, le défi était de montrer que les briques existantes du logiciel libre (ici Drupal et Webforms) permettent à des non-développeurs de bidouiller une alternative honorable à Google Forms en 14 jours de travail et en n’ajoutant que 60 lignes de code !

Depuis, des centaines de milliers de personnes se sont emparées de cet outil. Nous avons donc demandé à Théo, en stage chez nous, d’améliorer cet outil. Grâce à lui, Framaforms est passé en v1, une version qui corrige de nombreux bugs, permet l’effacement automatique des formulaires expirés et l’affichage d’une page pour contacter la personne qui a créé le formulaire.

Suite à son stage, Théo a rejoint notre équipe salariée pour quelques mois afin de poursuivre le travail sur Framaforms. La dernière version, la v1.0.3, permet d’installer le logiciel Framaforms dans d’autres langues que le français, et inclut de nombreux outils pour lutter contre le spam.

C’est peut-être un détail pour vous… Mais si vous saviez le nombre de personnes qui contactent notre support dans l’objectif de parler aux personnes qui ont créé un form.

Mobilizon, pour gérer groupes et événements hors de Facebook

Mobilizon, c’est notre outil libre et fédéré pour libérer nos événements et nos groupes des griffes de Facebook. Évoqué en décembre 2018 et financé par une collecte au printemps 2019, Mobilizon a été en développement tout au long de 2020.

Suite à un retard de développement (dû à une pandémie mondiale), la première version de Mobilizon est sortie en octobre, accompagnée d’une instance de démo, d’un site de présentation, d’une documentation complète, d’un roman photo relatant un cas d’usage, de notre instance publique (réservée aux francophones) et surtout du site Mobilizon.org pour vous aiguiller selon vos besoins, et vous y retrouver parmi tous ces outils !

Depuis la publication de cette première version, les contributions à Mobilizon sont nombreuses. Parmi elles, on peut noter une application Android (à retrouver ici sur le Playstore de Google et là sur Fdroid, le catalogue d’applications libres) réalisée par Tom79.

De nombreuses autres contributions (retours, questions, traductions, code et aide à l’installation etc.) ont fait qu’une mise à jour (la version 1.0.2) règle de nombreux bugs tout en ajoutant la possibilité de rejoindre les groupes en un clic, d’installer Mobilizon via Docker, et d’utiliser le logiciel dans 14 langues différentes.

Illustration de David Revoy – Licence : CC-By 4.0

PeerTube, en route vers la diffusion live dans la v3

Cet été, nous avons lancé une collecte pour financer la route vers la troisième version de PeerTube, notre alternative libre et fédérée qui démocratise la diffusion de vidéos en ligne.

Alors qu’une pandémie touchait (et touche toujours) la France et le monde, nous avons choisi de casser les codes du crowdfunding, en affirmant que nous développerions les fonctionnalités annoncées pour la v3 (que l’on récolte l’argent ou non) et en laissant à qui veut la possibilité de participer au financement des 60 000 € que nous coûtera le projet.

Le pari a été réussi, puisque près de 68 000 € ont été récoltés, avec des dons importants de structures comme Octopuce, Code Lutin ou encore la Fondation Debian, qui nous offre en plus une belle reconnaissance de l’utilité de PeerTube.

Depuis juin, nous avons développé et ajouté de nombreuses fonctionnalités à PeerTube : la recherche globale des vidéos et des chaînes (disponible sur la barre de recherche des instances ainsi que sur notre moteur de recherches SepiaSearch), de nombreux outils de modération, des améliorations significatives pour les playlists, le système de plugin… la liste est longue !

La diffusion de vidéos en direct et en pair à pair est codée, mais il faut encore la tester, l’affiner… Car même si ce live sera minimaliste (pas d’outil de chat, de réactions, etc.), le plus gros du travail reste dans les détails et finitions. Nous estimons publier une version quasi-finie (la « Release Candidate » ou « RC ») à la mi-décembre et publier la v3 stable en Janvier 2021.

Illustration de David Revoy – Licence : CC-By 4.0

Décentraliser, c’est politique

Depuis le lancement de la campagne Dégooglisons Internet en 2014, l’association Framasoft travaille à :

  • sensibiliser sur les enjeux de la centralisation de nos données par des acteurs monopolistiques (GAFAM, etc.) ;
  • proposer des services alternatifs sur ses serveurs, pour démontrer que le logiciel libre offre des outils éthiques et pratiques ;
  • essaimer, diffuser ces outils afin de multiplier les options d’hébergement de services éthiques, et aider les internautes concerné·es dans leur effort d’émancipation numérique.

En 2020, nous nous sommes concentré·es sur la partie essaimage, dans l’objectif que les services proposés par Framasoft ne soient plus une solution par défaut mais bien une première marche dans son émancipation numérique.

Illustration de David Revoy – Licence : CC-By 4.0

Dégoogliser en gardant des services à taille humaine

Maintenir plus de 30 services en ligne, cela implique de suivre les mises à jour de tous les logiciels libres qui propulsent ces services, chacun développé par sa communauté, à des rythmes très variés. Cette année encore nous avons veillé à tenir à jour les services que nous proposons, avec des mises à jour notables pour Framadrive/Framagenda, Framatalk, Framaforms, Framapiaf, Framateam et ce matin même Framadate.

Plus nos services sont connus, plus ils deviennent attractifs pour les usages malveillants, dont le spam. L’inventivité des escrocs qui veulent afficher à tout prix leurs liens frauduleux est sans borne. Nous avons consacré de longs mois (et un article de ce blog) à la lutte contre les usages indésirables.

Début 2020, nous estimions qu’environ un million de personnes utilisaient nos services chaque mois. C’est beaucoup pour une petite association de 35 membres et 10 salarié·es. Comme nous l’avons expliqué dans l’article dédié à nos actions durant le premier confinement français, les besoins ont été décuplés et nous avons dû changer nos manières de faire pour accompagner vos usages.

Cela s’est concrétisé par une refonte des sites web et outils qui nous permettent d’échanger ensemble. Notre page de contact, notre page de dons, et le menu contextuel présent sur tous nos sites ont été complètement repensés. L’objectif est de vous autonomiser en vous apportant directement des réponses adaptées, et de favoriser l’entraide collective de notre forum.

Toutes ces complexités ont un point commun : la sur-utilisation de nos services par rapport à la taille de notre équipe, qui a fait le choix de modérer sa croissance. Pour compenser cela, nous allons continuer de transformer certains de nos services en portails vers les mêmes outils, mais installés chez d’autres hébergeurs de confiance, le plus souvent membres du collectif CHATONS.

Dégooglisons Internet, vu par Péhä (CC-By)

Le Collectif d’Hébergeurs Alternatifs CHATONS

Le collectif CHATONS, dont les membres proposent des services hébergés dans le respect des valeurs de leur Manifeste et des engagements de leur Charte, grandit et évolue. Framasoft y a consacré, tout au long de cette année, des heures d’animation, et la belle dynamique interne montre que cela a porté ses fruits.

Durant l’année, les CHATONS ont tenu une réunion mensuelle entre les membres disponibles, en plus des échanges sur le forum. Cela leur a permis de mieux s’organiser pour accueillir de nouveaux membres dans le collectif, pour réviser et mettre à jour la charte, ou pour alimenter la « litière », le wiki où les CHATONS partagent des informations techniques, légales, administratives, etc.

Notons que, durant le confinement français, les CHATONS ont ouvert la page « Entraide », qui donne accès à neuf services en ligne, sans inscription et hébergés de manière éthique. Cerise sur le gâteau, ces services sont décentralisés sans que vous n’ayez rien à faire : utilisez un service, et le site vous mènera aléatoirement vers un des membres du collectif qui propose cet outil.

Aujourd’hui de nombreuses actions sont en cours : des améliorations notables pour le site web chatons.org, des outils de récolte statistique dans l’objectif de valoriser ce que proposent les membres du collectif, et, bien entendu, l’accueil de la nouvelle portée des futurs membres du collectif prévue pour cette fin d’année !

Illustration de David Revoy – Licence : CC-By 4.0
Edit : on nous demande où sont les stickers de ce visuel… C’est sur la boutique de David Revoy

Les partenariats dans notre archipel

Tout au long de l’année, nous avons continué à entretenir les liens qui nous unissent aux partenaires constituant notre archipel, tout en nouant de nouvelles relations.

Les échanges avec plusieurs organisations (ArtyFarty, Alternatiba, le réseau de l’Information Jeunesse, WebAssoc, LentCiné, Exodus Privacy, Designers Ethiques, l’Institut de Recherche et d’Innovation, les gilets jaunes etc.) sur leur démarche de passage à des outils libres nous font dire que de plus en plus de structures sont sensibles à la nécessité de mettre en cohérence leurs outils numériques avec les valeurs qu’elles prônent. Afin de montrer que cette mise en cohérence est possible, nous avons publié 3 billets de blogs pour documenter cette démarche et nous continuerons à le faire en 2021.

Avec certaines de ces organisations, nous allons même plus loin que les simples échanges, et nous tentons de les accompagner activement autant que nous le pouvons dans cette démarche. Par exemple nous accompagnons et soutenons la démarche du collectif InterHop qui promeut l’usage des logiciels libres dans le domaine de la santé (et sur ce vaste sujet qu’est le Health Data Hub). Nous avons fourni gracieusement pendant un an un serveur PeerTube de grosse capacité à ImagoTV. Enfin, nous travaillons directement avec Résistance à l’Agression Publicitaire sur le logiciel de pétitions libre Pytition.

De plus, sous l’impulsion du mouvement Colibris et en partenariat avec AnimaCoop et Ritimo, nous avons participé à la réalisation et à l’animation de la formation en ligne Créer un projet collectif : méthodes et outils éthiques à destination des organisations. Cette formation qui s’est déroulée du 2 novembre au 3 décembre a permis à 55 personnes de découvrir de nombreux outils collaboratifs libres. Nous avons aussi accepté avec joie de faire partie du groupe de travail du futur MOOC sur la contribution au logiciel libre qui sera produit par Telecom Paris.

Enfin, nous avons poursuivi tout au long de l’année notre partenariat avec Mélanie et Lilian qui sont en train de produire les Métacartes Numérique Éthique. Ce jeu de cartes physiques (toutes reliées à une page web) permet aux personnes qui promeuvent le numérique éthique d’expliquer des concepts, d’accompagner les usages, d’animer des discussions et de se questionner sur les critères de confiance en un outil numérique.

Illustration de David Revoy – Licence : CC-By 4.0

Émanciper par l’éducation populaire

En quelques années, Framasoft est passée de « association qui promeut le logiciel libre et sa culture » à « association d’éducation populaire aux enjeux du numérique ». Ce n’est pas anodin.

Au fil de nos expériences de dégooglisation et de décentralisation, nous avons compris qu’à nos yeux, le logiciel libre n’est pas une fin en soi : c’est un moyen (nécessaire et insuffisant) pour servir l’émancipation des humain·es qui utilisent ce logiciel. Et cela vaut pour tout outil numérique : logiciel, culturel, etc…

Nous avons pu constater, au fil de nos interventions et accompagnements, que la transmission des connaissances, des savoirs-faire et des concepts est beaucoup plus efficace lorsqu’elle advient dans une relation d’égal à égal, où chacun·e apprend de l’expérience de l’autre et sort enrichi·e de cet échange.

C’est pourquoi nous croyons que contribuer à l’émancipation numérique implique, pour nous, d’essayer d’appliquer (quand on le peut et si on y arrive) les valeurs et méthodes de l’éducation populaire.

Illustration de David Revoy – Licence : CC-By 4.0

Diffuser la culture du libre et des Communs

L’équipe de bénévoles de notre maison d’édition Framabook a publié, en mai dernier, quatre recueils de nouvelles écrits par Yann Kervran dans son univers médiéval Hexagora. Ces Qit’a (volume 1 à 4) permettent de mieux explorer ce temps des croisades que l’auteur évoque de façon si vivante. Allez sur Framabook pour vous procurer les Qit’a volume 01, volume 02, volume 03, volume 04.

C’est le quatrième volume de Grise Bouille que Framabook a publié cette année. « En quoi le profilage de code peut-il nous aider à lutter contre la fraude fiscale ? Quel est le rayon d’un atome de Savoie ? Faut-il refuser de rendre visite à des personnes qui possèdent une enceinte connectée ? La société industrielle va-t-elle bientôt s’effondrer ? » Dans ce livre, Gee répond à ces questions (et bien plus) en regroupant les BD, aquarelles et textes publiés entre juillet 2018 et septembre 2020 sur son blog grisebouille.net. L’anthologie est disponible sur Framabook.

Cette année encore, le Framablog a été très actif. Le Khryspresso, revue de web hebdomadaire concoctée par Khrys, est servi chaque lundi, et fait les joies des fidèles de ce rendez-vous informatif. Le groupe de traduction Framalang a publié de nombreuses traductions dont la série « Détruire le Capitalisme de Surveillance » de Cory Doctorow. Enfin, en décembre, nous allons dévoiler une bien belle contribution avec la lecture audio de certains articles du Framablog.

Nous avouons le plaisir de travailler de plus en plus régulièrement avec David Revoy, auteur du web comic libre Pepper & Carrot, qui produit de nombreuses illustrations pour nous. Nous avons demandé au papa de Sepia (mascotte de PeerTube) et Rȯse (mascotte de Mobilizon) de nous aider à illustrer régulièrement ce que nous faisons, comme par exemple cet article du Framablog.

Illustration de David Revoy – Licence : CC-By 4.0

Faciliter l’accompagnement au numérique éthique

C’est en février que nous avons pu publier le premier module du MOOC CHATONS : « Internet, pourquoi et comment reprendre le contrôle ? ». Co-conçu avec la Ligue de l’enseignement, ce cours en ligne et ouvert peut se pratiquer en toute autonomie pour découvrir comment s’est construit notre paysage numérique, comment il a été envahi et cloisonné par les géants du web, et quelles sont les pistes pour s’émanciper.

En mars, nous avons expérimenté un librecours pour acquérir les clés de la culture libre, et en particulier celles des licences libres. Que vous soyez créateur, prescriptrice, spectateur, étudiante, ou tout ça à la fois, ce cours permet de savoir comment exploiter un contenu culturel en ligne et diffuser les siens. Proposé par Stéphane Crozat (membre de Framasoft et prof à l’UTC), et animé par certain·es de nos membres, cette première expérience fut très enrichissante !

En juin dernier nous avons dévoilé [RÉSOLU]. C’est un projet hautement contributopique puisqu’il est le fruit du travail collaboratif de Framasoft, du Chaton Picasoft et de la Mission Libre-Éducation Nouvelle des CEMÉA. [RÉSOLU], c’est un ensemble de fiches didactiques, sous licence libre et aux formats PDF, web et papier… pour accompagner vers le Libre les organisations qui agissent pour l’Économie Sociale et Solidaire.

Réalisé en partenariat avec le collectif d’éducation populaire La Dérivation, l’annuaire des acteurs et actrices de l’accompagnement au numérique libre a été publié en septembre dernier. Même si ce n’est qu’un instantané, il permet de recenser les personnes, structures et organisations réalisant des accompagnements au numérique libre et de publier leurs coordonnées dans un annuaire pour celles qui le désirent.

Illustration de David Revoy – Licence : CC-By 4.0

Se parler, quelle que soit la distance

Avant que la pandémie n’éclate, nous avons été fidèles à notre habitude d’aller parler de nos sujets dans de nombreux événements. En début d’année, nous avons participé (entre autres) aux 100 ans de la société des Nations à Genève, aux WebAssembly days, au festival des libertés numériques, à un mini-village Alternatiba à Toulouse ou au café des sciences de Chambéry.

Les contribateliers sont des ateliers où l’on peut venir et contribuer au Libre sans écrire une seule ligne de code (sauf si on aime ça :p !). Alors qu’ils se sont multipliés début 2020 (Lyon, Tours, Toulouse, Paris, Nantes…), l’équipe qui les organise s’est adaptée à la pandémie et a proposé des Confinateliers. Grâce au logiciel libre de visio conférence BBB, deux confinateliers se sont organisés cette année, chacun permettant à près de 80 personnes de se réunir en divers salons de visio conférence pour contribuer à des projets libres.

Quant à Framasoft, nous avons continué d’intervenir, à distance, pour présenter les enjeux du numérique et les outils pour s’émanciper. Que ce soit pour partager en anglais nos expérimentations franchouillardes lors des 35 ans de la FSF, ou pour défendre la dignité du modèle associatif dans le festival en ligne EthicsByDesign, nous avons répondu à de nombreuses invitations à nous exprimer en ligne.

…et sinon, en 2020, on a aussi fait des prouts.

Traverser 2020 grâce à votre confiance

Cette année fut complexe et difficile, pour tout le monde, et en faire le bilan n’est pas un exercice aisé (à tel point qu’il nous a fallu faire deux articles, dont un expliquant nos actions durant le premier confinement).

Ce que nous avons fait cette année, si nous avons pu le réaliser en gardant l’esprit libre, c’est grâce à vous. Le soutien et la confiance que nous recevons, chaque année, sous formes de dons, de mots gentils, d’attentions et de contributions… tout cela donne un sens et une portée à nos expérimentations.

Nous vous remercions, vraiment, de nous accompagner dans ces cheminements.

C’est le moment de l’année où nous nous devons de rappeler que ces actions ont un coût, et que Framasoft est financée, quasi exclusivement, par vos dons. Avec la défiscalisation (disponible pour les contribuables français·es), un don de 100 € à Framasoft revient, après déduction, à 34 €.

Ainsi, si vous souhaitez soutenir nos actions et que vous estimez en avoir les moyens, n’hésitez pas à cliquer sur le bouton ci dessous ;).

Soutenir Framasoft




Review of Framasoft’s actions in 2020 (excluding the lockdown period)

Our actions are funded by your donations, increased by your contributions and are useful because you share them and make them your own. Therefore we wanted to take the time to make an review of our main actions carried out in 2020.

Even though the year is not over yet we can already see what our association (35 members, 10 employees) has done with the resources received.

Note:

Setting freedoms in code

In digital world, code is law: people running the code have the power and responsibility to determine what will be possible or impossible to do.

That’s why we have taken the responsibility to develop some softwares: in order to experiment other ways to open up possibilities, to offer alternative ways to organize our digital exchanges.

Coding these softwares under free licenses allows us to limit this huge power over the code (so what makes the rules on our screens) thanks to transparency mechanisms, works for opening up to the community and to the possibility of alternative governances.

Illustration by David Revoy – License: CC-by 4.0

Reinforcing Framaforms to face Google Forms

When it opened in 2016, we didn’t imagine that Framaforms, our alternative to Google Forms, would be the most used service of the De-google-ify the Internet campaign!

At this time, the challenge was to show that Free Libre Open Source Softwares (FLOSS) plugins (here Drupal and Webforms) allows non-developers to hack a respectable alternative to Google Forms in 14 working days by adding only 60 lines of code!

Since then, hundreds of thousands of people have been using this tool. We asked Théo, our intern, to improve this tool. Thanks to him, Framaforms has been upgraded to v1, a version correcting many bugs, allowing the automatic erasure of expired forms and the display of a page to contacta form creator.

Following his internship, Théo has joined our salaried team for a few months to continue his work on Framaforms. The last version, v1.0.3, enables to install Framaforms software in other languages than French and includes several tools to fight against spam.

It may be a detail for you… But if you knew how many people contact our support service to talk to forms’ creators…

Mobilizon: to manage groups and events out of Facebook

Mobilizon is our free and federated tool to free our events and groups from Facebook. Mentioned in December 2018 and financed by a fund-raising in the spring of 2019, Mobilizon has been developed throughout 2020.

Following a delay in development (due to a global pandemic), the first version of Mobilizon was released in October, with:

  • a demo instance,
  • a presentation site,
  • a complete documentation,
  • a photo novel telling a case study,
  • our public instance (for the French speaking only)
  • and Mobilizon.org: a website to guide you according to your needs and find your way among all these tools!

Since the publication of this first version, there are many contributions to Mobilizon. Among them, an Android application has been created by Tom79 and you can find it on Google’s Playstore and on Fdroid, the free app catalogue.

Many other contributions (feedbacks, issues, translations, code and assistance to the installation, etc.) allow an update (version 1.0.2) that corrects many bugs while adding the possibility to join groups in one click, to install Mobilizon via Docker and to use the software in 14 different languages.

Illustration by David Revoy – Licence: CC-by 4.0

PeerTube: on its way to live streaming in the v3

That summer, we launched a fundraising to finance PeerTube’s third version, our free and federated alternative that generalizes video broadcasting.

While France and the world were affected (and still are) by a pandemic, we have chosen to break the codes of crowdfunding by assuring that we would develop v3 announced features (whether we raise the money or not) and giving whoever the possibility to participate to the financing of the 60 000€ that the project will cost.

The bet was achieved because almost €68 000 were raised thanks to important donations of structures as Octopuce, Code Lutin or the Debian Fondation that also gives us a great recognition of PeerTube’s usefulness.

Since June, we have developed and added many features to PeerTube: videos and channels global search (available on the search field of instances and on our search engine SepiaSearch as well), several moderation tools, significant improvements for playlists and to the plugin system… the list goes on!

Live and peer-to-peer video broadcasting is encoded but still needs to be tested and refined… Because even though this live will be minimalist (no chat or reaction tools, etc.), most of the work is in the details and finishing touches. We are planning to publish a nearly-finished version (the « Release Candidate » or « RC ») in mid-December and the stable v3 in January 2021.

Illustration by David Revoy – Licence: CC-by 4.0

Decentralizing is political

Since the launch of the De-google-ify Internet campaign in 2014, Framasoft works towards to:

  • raise awareness on data centralization by monopolistic actors (GAFAM, etc.);
  • offer alternative services on its servers to show that FLOSS presents ethical and practical tools;
  • swarm, spread these tools to increase ethical service hosting options and help internet users in seeking of digital emancipation.

In 2020, we focused on the swarming part with the objective that the services offered by Framasoft wouldn’t be a default solution anymore but a first step in its digital emancipation.

Illustration by David Revoy – Licence: CC-by 4.0

 

De-google-ify while keeping services on a human scale

Maintaining more than 30 online services involves to keep track of updates of all the free-libre softwares behind these services, while each one is developed by its community at their own pace. Once again this year, we have ensured to keep the offered services up to date, with important updates for Framadrive, Framagenda, Framatalk, Framaforms, Framapiaf, Framateam and this morning Framadate.

The more our services are known, the more attractive they become for malevolent uses, including spam. The cheats’ inventiveness is limitless, they want to show their fraudulent links at all costs. For months we have dedicated ourselves (and an article of this blog) to fight against such unwanted uses.

It was estimated early 2020 that about one million people were using our services every month. That’s a lot for a small not-for-profit of 35 members including 10 employees. As explained in the article about our actions during the first French lockdown, needs for online services skyrocketed, we had to change our ways of helping users.

That’s why we completed the work on our websites and tools to exchange with each other. Our contact page, our donation page and the contextual menu on all of our websites have been completely redesigned. The aim is for you to be autonomous by giving you directly adapted answers, and to favor mutual aid on our forum.

All these issues have a common trait: the overuse of our services compared to our team size, who has decided to moderate its growth. To compensate for this, we will continue to transform some of our services into portals to the same tools but that are installed in other trusted hosts, most often members of the CHATONS collective.

De google-ify the Internet, seen by Péhä (CC-By)

 

CHATONS, the Collective of Alternative Hosters

The CHATONS collective, whose members offer ethical online services according to the values of their Manifesto and the commitments in their Charter, grows and evolves. Throughout this year, Framasoft has been spending hours to coordinate the collective. The pleasant internal dynamic proves that it pays off.

During the year, in addition to the forum exchanges, the CHATONS held a monthly audio-meeting between available members. The collective was thus better organized to welcome new members, to revise and update the charter, or to contribute to the « litter »(the wiki where the CHATONS share technical, legal and administrative information, etc.)

Let’s note that during the French lockdown, the CHATONS opened a new website that offers nine online services without registration, and hosted ethically. Icing on the cake, these services are decentralized and you have nothing to do: choose one service and the website will transfer you randomly to one of the collective members offering this tool.

Today many actions are in progress: important improvements for the chatons.org website, statistical collecting tools in order to improve what the collective members offer, and of course, the welcoming of the future collective members planned for the end of the year!

Illustration by David Revoy – Licence: CC-by 4.0 Edit: stickers of this picture are available on David Revoy’s shop

Partnerships in our archipelago

Throughout the year, we kept maintaining the links that unite us to the partners composing our archipelago while creating new relationships.

Exchanges with many organizations (ArtyFarty, Alternatiba, Le réseau Information Jeunesse (the Youth Information Network), WebAssoc, LentCiné, Exodus Privacy, Designers Ethiques, L’Institut de Recherche et d’Innovation (Institute for Research and Innovation), the Gilets Jaunes (Yellow Vests movement), etc.) on their conversion to free-libre tools show that more and more organizations wish to match their digital tools with the values they uphold. In order to show that this consistency is possible, we published 3 blogposts to document this process and we will keep doing it in 2021.

With some of these organizations, we go even further than simple exchanges and try to actively support them as much as we can in this methodology. For example, we help and support the InterHop collective approach that promotes the use of FLOSS in the health field (and especially on the French Health Data Hub). For a year, we freely provided a PeerTube server of high capacity to ImagoTV. And we work directly with Résistance à l’Agression Publicitaire (a French nonprofit fighting against aggressive advertisement) on Pytition, a software for free-libre petitions.

Moreover, driven by the Colibris movement and in partnership with AnimaCoop and Ritimo, we took part in the realization and organization of the online training course Créer un projet collectif : méthodes et outils éthiques (Create a collective project: ethical methods and tools for organizations). This online course that took place from November 2nd to December 3rd allows 55 persons to discover many free-libre collaborative tools. We have also gladly accepted to be part of a working group tht is developing content for a MOOC produced by Telecom Paris about How to contribute to FLOSS.

Finally, throughout the year, we have continued our partnership with Mélanie and Lilian who are producing the Métacartes Numérique Ethique (Ethical Digital Metacards). This physical card game (each linked to a website) helps people promote ethical digital technology by explaining concepts, encouraging new uses, presenting discussions and questioning the criteria for trust in a digital tool.

Illustration by David Revoy – Licence: CC-by 4.0

Emancipating through popular education

In a few years, Framasoft went from an « association promoting free-libre softwares and its culture » to « a popular education association on digital issues ». That’s not insignificant.

As our degooglization and decentralization experiments went by, we have figured out that FLOSS is not an end in itself. It’s a mean (necessary and insufficient) to favor software users’ emancipation. It is true for every digital content: sotfwares, cultural works, etc.

In the course of our interventions and supports, we have noticed that knowledge, know-how and concepts transmission is much more effective when it happens in equal relationships, where each learns from the experience of others and comes out enriched from this exchange.

That’s why we believe that contributing to digital emancipation means trying to apply (when you can, and if you succeed) popular education values and methods.

Illustration by David Revoy – Licence: CC-by 4.0

Spreading FLOSS and Commons’ culture

Last May, the volunteers of our publishing house, Framabook, published four short story collections written by Yann Kervran in his medieval universe, Hexagora. His Qit’a (volume 1 to 4) let us explore the time of the Crusades that the author evoke so vividly. Go to Framabook to download the first, second, third and fourth volume of the Qit’a (in French).

This year, Framabook published the fourth volume of Grise Bouille. « How code profiling can help us fight against tax evasion? Should we refuse to visit people owning a smart speaker? Is the industrial society about to collapse? » In this book, Gee answers these questions (and much more) by gathering the comic books, watercolors and texts published between July 2018 and September 2020 on his grisebouille.net blog. The anthology is available on Framabook (French).

This year again, the Framablog has been really active. The weekly web review Khryspresso is released by Khrys every Monday and is the joy of every follower of this informative rendezvous. Framalang translation group published many translations including the collection « Détruire le Capitalisme de Surveillance » by Cory Doctorow. Finally, in December we are going to reveal a great contribution with the audio reading of some Framablog articles.

We had the pleasure to work more often with David Revoy, the author of Pepeer & Carrot, the free-libre open source webcomic, who draws a lot of illustrations for us. We asked the father of Sepia (PeerTube mascot) and Rose (Mobilizon mascot) to regularly help us illustrate what we do, such as this Framablog article.

Illustration by David Revoy – Licence: CC-by 4.0

 

Sharing how to adopt ethical digital tools

In February, we published (in French) the first MOOC CHATONS module: « Internet: why and how to take back control? ». Co-conceived with the French organization La Ligue de l’enseignement, this online and open course can be followed in autonomy to discover how our digital landscape was built, invaded and walled by tech giants, and learn the ways to emancipate.

In March, we experimented a « librecours » to acquire the keys to FLOSS culture, especially those of free license. Whether you are a creator, a prescriber, a spectator, a student or all of the above, this course teaches you how to use online cultural content and spread your own. This first experience was lead by Stéphane Crozat (a Framasoft member and a teacher at UTC) and organized by some of our members. And it was very rewarding!

Last June, we revealed [RESOLU] (a guide to accompany organizations towards the adoption of free alternative solutions). It’s a highly contributopic project since it’s the result of the collaborative work of Framasoft, the « chaton » Picasoft and the « Mission Libre-Education Nouvelle des CEMEA ». [RESOLU] is a set of didactic sheets, under free-libre license and in PDF, web and paper format… to accompany towards FLOSS use organizations that act for the Social Solidarity Economy.

Created in partnership with the popular education collective La Dérivation, we published in September a directory of French actors of free digital accompanying. Even though it’s just a snapshot, it draws up an inventory of people, structures and organizations providing free digital accompanying with their contact details.

Illustration by David Revoy – Licence: CC-by 4.0

Talking to each other despite distance

Before the pandemic, we were faithful to our habit of speaking out in many events. At the beginning of the year, we participated (for example) to the hundredth anniversary of the League of Nations in Geneva, to the WebAssembly days, to the Digital Freedoms Festival, to an Alternatiba mini-village in Toulouse and to the Café des sciences of Chambéry.

The « contribateliers » are workshops where people can contribute to FLOSS without writing a single line of code (except if you like it!). While the contribateliers events spread in early 2020 (Lyon, Tours, Toulouse, Paris, Nantes…), their creators adapted themselves to the pandemic and offered « confinateliers », the online version of the « contribateliers ». Thanks to BBB, the free video conference software, two confinateliers took place this year, each gathering around 80 people in various video chatrooms to contribute to free-libre projects.

Framasoft kept intervening, remotely, to present digital issues and tools to get emancipated. Whether it’s to share in English our typically French experiments during the 35th anniversary of the FSF (Free Software Foundation), or to defend the dignity of the associative model during the online festival EthicsByDesign, we responded to many invitations to express ourselves online.

Free software activism successes in France with Pouhiou and Eda Nano – FSF 35th birthday

… by the way in 2020 we also farted.

 

Going through 2020 thanks to your trust

This year was complicated and difficult for everyone and it’s not easy to review it (to the extent where two articles were needed, including one explaining our actions during the first lockdown (French)).

If we were able to keep a free mind while doing what we did this year, it’s thanks to you. The support and trust we receive every year in donations, kind words, sympathy and contributions… all give meaning and significance to our experiments.

We truly thank you for accompanying us in this developments.

It’s the time of the year where we have to remind you that these actions have a cost and that Framasoft is almost exclusively funded by your donations. With tax relief (available for french taxpayers) a €100 donation to Framasoft represents €34 after deduction.

Thus, if you wish to support our actions and think you can afford it, don’t hesitate to click on the button below 😉

Support Framasoft