De la bureau-cratie à la tout-doux-cratie : refonder la gouvernance associative

Une asso qui se lance, comment ça marche ? Ou plutôt quels écueils ça rencontre, comment on peut les contourner, quel mode de gouvernance installer… ? Ces questions et bien d’autres qui agitent ses membres jusqu’à les rendre perplexes, Quentin et ses complices les ont affrontées au sein de l’association Picasoft…

Faut-il préciser que chez Framasoft, asso déjà plus ancienne, ces questions et leurs réponses nous ont tout de suite « parlé », car d’une saison à l’autre ce sont bien les mêmes perplexités que nous avons rencontrés et retrouvons encore périodiquement sans avoir beaucoup plus de certitudes malgré les années…

C’est donc avec beaucoup de plaisir et d’intérêt que nous avons lu l’analyse très fine et teintée d’humour que propose Quentin et que nous vous partageons, tant il nous semble que beaucoup de membres d’associations diverses (et pas seulement les CHATONS) pourraient en tirer profit, du moins une saine réflexion.


Ce billet raconte une histoire : l’histoire d’un hébergeur associatif étudiant et universitaire face à ses dilemmes internes. Un chaton au bord de la crise de nerfs. Mieux sécuriser les données des utilisateur·ices au prix d’un flicage des bénévoles ? Militer pour des thèmes qui ne parlent pas à tout le monde ou rester consensuel ?

En fait, c’est l’histoire de dilemmes qui se transforment en crise. Je vous propose de me suivre dans cette enquête pour comprendre ce qui n’a pas fonctionné, et comment on a réagi. On y réalisera notamment que cette histoire est terriblement banale et que le ver était dans le fruit depuis le début. Toute organisation, tôt ou tard, doit regarder ses tensions dans les yeux sous peine d’imploser, et il y a fort à parier que certains machins résonneront avec vos propres histoires.

Rappelons d’abord qu’il n’y a pas de méthode optimale pour résoudre des conflits, ou plus généralement, pour décider de la bonne chose à faire – en premier lieu parce que tout le monde a ses propres besoins et ses propres valeurs et qu’il est rare de pouvoir les satisfaire simultanément et pleinement. Tout processus de décision porte en lui-même des arbitrages. Il peut favoriser la fluidité au détriment du consensus. Il peut préférer la lenteur à l’urgence. Il peut chercher à maximiser la satisfaction globale quitte à autoriser une insatisfaction marginale très forte. En bref, un processus de décision n’est jamais neutre.

Et pourtant, on verra qu’il est indispensable de choisir explicitement un processus de décision, sous peine de laisser les rapports de domination se reproduire subrepticement. Le nôtre, c’est la tout-doux-cratie, qui occupera la suite de ce billet. Nous l’avons écrit avec l’espoir qu’il essaimera et fera fleurir des idées fécondes, pour nos ami·es CHATONS mais pas seulement ; vers toutes les structures qui, un jour, se retrouveront face à des dilemmes explosifs. Bonne lecture! ☺️

J’oubliais… évidemment, ce système n’est pas parfait, alors après la théorie, il sera utile de regarder la pratique. Deux ans de tout-doux-cratie plus tard, je vous proposerai un retour d’expérience, quelques cas pratiques et un essai d’auto-critique. Mais ça… ce sera pour un autre billet. 😉

Qui sont-ils ? Quel est leur projet ?

Nous, je, on, c’est Picasoft. Je vous propose un peu de contexte pour se mettre dans le bain. Picasoft est une association étudiante créée en 2016 à l’Université de Technologie de Compiègne (UTC). Elle est membre du collectif CHATONS.

Le logo de Picasoft fait référence au collectif CHATONS et à la décentralisation du web, deux thèmes largement repris des campagnes de Framasoft.

Le nombre de membres est plutôt stable dans le temps : entre cinq et dix membres actifs, entre vingt et trente enthousiastes prêt·es à donner un coup de main. Ses bénévoles sont étudiant·es ou enseignant·es chercheur·ses.

Quant à notre projet…

L’Association Picasoft a pour objet de promouvoir et défendre une approche libriste inclusive, respectueuse de la vie privée, respectueuse de la liberté d’expression, respectueuse de la solidarité entre les humains et respectueuse de l’environnement, notamment dans le domaine de l’informatique.

C’est un extrait de nos statuts. Vous l’aurez compris, la voie est libre. Plus concrètement, Picasoft s’est engagée dans trois voies :

  1. Héberger des services web libres et respectueux de la vie privée ;
  2. Sensibiliser les citoyenn·es aux enjeux autour du numérique ;
  3. Former les étudiant·es ingénieur·es à des façons de faire (auto-hébergement, hébergement à petite échelle…) peu ou pas traitées en cours.

Par exemple, on propose :

 

Un chamboule tout avec des services propriétaires à renverser, et des gâteaux sous licence libre.
Un chamboule-tout avec des services propriétaires à renverser, et des gâteaux sous licence libre. Voyez comme chez Picasoft, on sait s’amuser. N’hésitez pas à nous inviter pour mettre l’ambiance à tous vos événements.

 

Par ailleurs, Picasoft s’inscrit dans un écosystème particulier, qui est important pour la suite ; je vous prie donc de me pardonner ces précisions administratives. L’UTC compte plus d’une centaine d’associations étudiantes, fédérées de manière très verticale jusqu’au Bureau Des Étudiants (BDE), un organe essentiellement administratif.

Lors de sa création, Picasoft fait le choix de se constituer en association loi 1901, pour s’assurer une relative indépendance par rapport au BDE. En effet, les autres associations, des genres de « projets » du BDE, n’ont pas d’existence légale propre ni de compte en banque. Pour autant, le couplage entre Picasoft et l’UTC reste très fort, notamment à travers le soutien fort du laboratoire de sciences humaines et sociales, Costech.

Et qui dit association loi 1901 dit statuts.

Les statuts sont l’acte fondateur d’une association [qui comporte] les informations décrivant l’objet (ou le but) de l’association et ses règles de fonctionnement.1

Ça ne rigole pas, des règles de fonctionnement. Finie l’insouciance, fini de se rouler dans l’herbe pieds nus en jouant du djembé : il faut rédiger des statuts et les envoyer à la préfecture (bruit de tonnerre).

Alors l’équipe de l’époque s’attelle à la tâche. L’idée est moins de contrôler ses membres que de faciliter les roulements dans l’association en lui donnant un cadre. En effet, l’UTC fonctionne sur un rythme semestriel. Tous les semestres, des étudiant·es partent en stage ou à l’étranger : il faut sans cesse renouveler les membres, transmettre les savoir-faire technique, financier et administratif, s’assurer d’un service minimum… En bref, faire de Picasoft un chaton étudiant durable et compostable.

Alors, on signe où et quoi ?

Vieux pots et (dé)confiture

Les premiers statuts de Picasoft sont calqués sur ceux de Rhizome, le Fournisseur d’Accès à Internet étudiant de l’UTC. Et pour cause, c’est Kyâne, un ancien membre de Rhizome, qui a aidé à lancer l’aventure Picasoft.

logo_rhizome

Expérimenté plusieurs années chez Rhizome, c’est un modèle très classique qui a « fait ses preuves ». Examinons-en quelques concepts-clés. D’abord, les décisions sont prises par un sous-ensemble des membres.

L’Association est dirigée par un Bureau d’au moins trois membres. […] Toute prise de décision relevant du Bureau est soumise au vote. Ce vote a lieu lors d’une réunion où doivent être présents au minimum deux-tiers des membres du Bureau. La décision est adoptée à la majorité absolue des membres du Bureau.

Les membres doivent adhérer à l’association (chez Rhizome, c’est 1€ symbolique).

Est membre de l’Association toute personne à jour de la cotisation fixée dans le Règlement Intérieur.

Le bureau est renouvelé régulièrement…

L’Assemblée Générale Ordinaire se réunit obligatoirement au moins une fois par semestre. […] Il est aussi procédé à l’élection des membres du Bureau.

…et doit rendre des comptes.

Lors de cette réunion dite « semestrielle », le Président soumet à l’Assemblée Générale un rapport sur l’activité de l’Association. Le Trésorier soumet le rapport financier comportant les comptes de l’exercice écoulé.

L’intention de ces statuts est de déléguer aux membres de l’association à un bureau élu lors des Assemblées Générales (AG). En pratique, le bureau assure la gestion quotidienne, sous mandat de l’AG. Notamment, s’il est en rupture avec les autres membres, il peut être dissous par les membres.

Alors, à parler de bureau, d’AG et de préfecture, le suspense monte inévitablement. Je vous devine derrière l’écran, les yeux pétillants, à vous demander : mais quand est-ce-qu’on arrive ? qu’est-ce-qui a mal tourné alors que tout semblait si bien parti ?

Eh bien pour le savoir, il faut examiner dans le détail les cruels dilemmes qui ont déchiré l’association (le lecteur découvrira plus tard que j’en fais trop, mais j’espère pour l’heure avoir retenu son attention).

Picasoft, « respectueux de la vie privée » ?

À la fin de l’année 2017, nos services connaissent leur première hausse de fréquentation. 1000 utilisateur·ices sur Mattermost, 500 pads créés… C’est modeste, mais c’est aussi l’occasion de se poser une question : quelles sont les garanties que les utilisateur·ices sont en droit d’attendre ? Il y a en effet une tension entre la présentation de nos services et nos Conditions Générales d’Utilisation.

D’un côté, on pourrait tendre l’oreille sur un stand Picasoft et glaner un bout de conversation :

L’idée, c’est de proposer une alternative locale, pour les services collaboratifs mais pas que. Tes données restent à toi, on ne les regarde pas, on ne les vend pas, elles restent sur nos serveurs et personne n’y touche! 😙 — un·e sympathisant·e de Picasoft

De l’autre, nos CGU sont plus prudentes :

Picasoft fera tout son possible pour que vos données personnelles ne puissent être consultées par personne d’autre que vous et votre destinataire le cas échéant. […] On n’est pas obligé de réparer. Picasoft propose ce service gratuitement et librement. Si vous perdez des données, par votre faute ou par la nôtre, désolé, mais ça arrive. — nos sympathiques CGU

Cette prudence est naturelle : personne n’a envie d’engager la responsabilité juridique de Picasoft parce que quelqu’un a perdu son pad. Le message est clair : on fait de notre mieux. Mais est-ce vraiment cette version que les utilisateur·ices ont en tête ? Car mécaniquement, plus le public s’agrandit, plus le lien humain avec l’association est ténu. Et, aux convaincu·es du début, s’ajoutent deux types de personnes : les convaincu·es par un·e convaincu·e et les obligé·es par un·e convaincu·e. Avec un public encore élargi, on peut y ajouter les personnes qui découvrent les services par hasard.

Le public de Picasoft s’élargit petit à petit… vers des publics différents.

 

Dans tous les cas, ces personnes n’ont généralement pas lu nos CGU ni échangé avec nous. Les convaincu·es attendent a minima que leur vie privée soit effectivement respectée tandis que les autres attendent que leurs données soient accessibles et intègres. Cette pseudo-catégorisation est bien entendu très réductrice ; on y oublie par exemple les personnes qui ont conscience de l’aspect artisanal des petites structures comme Picasoft. Ces dernières savent que la disponibilité permanente nécessite un fort investissement et se fait parfois au prix d’une infrastructure technique complexe, coûteuse et énergivore. Par ce prisme, il semble raisonnable que les services soient parfois indisponibles. Mais l’image marketing du Cloud, partout-tout-le-temps-pour-toujours, invisibilise la difficulté et les moyens à déployer pour obtenir ces garanties.

Alors, pour beaucoup, un service Picasoft c’est au pire un énième service, au mieux un service qui lui, respecte la confidentialité. La confidentialité est un des éléments du triptyque de la sécurité informatique : confidentialité (ma vie privée est respectée), intégrité (mes données ne sont pas perdues) et disponibilité (mes données sont accessibles). Ces attributs sont généralement pris comme des présupposés. Alors, quelle posture adopter ? Il est délicat de se cacher derrière nos CGU, car nous ne voulons pas ternir l’image du libre et des CHATONS, mais nous ne voulons pas non plus jouer le jeu des « Cloud » commerciaux2.

Nous souhaitons véritablement faire de notre mieux pour la sécurité. Et en matière de sécurité, les déclarations d’intention ne suffisent pas. Les risques sont nombreux et concrets : clés d’accès aux machines perdues dans la nature, failles de sécurité non corrigées et exploitées par un·e attaquant·e, curiosité mal placée d’un·e membre… Au boulot : un des processus de base pour améliorer la sécurité d’une infrastructure est de réduire la surface d’attaque, c’est-à-dire la réunion des points d’entrée par lesquels une attaque est susceptible de se produire. Intuitivement, plus il y a de logiciels installés sur les serveurs et plus il y a de personnes qui y ont accès, plus la surface d’attaque augmente.

Cette question cruciale est débattue pendant l’AG extraordinaire de l’été 2018, a fortiori car à cette époque, personne n’est véritablement en maîtrise des accès à l’infrastructure. Ils sont donnés de la main à la main, sans trace nette, et ne sont jamais révoqués, même pas après que le départ des membres. L’idée que cette situation est problématique fait consensus. Parmi les options pour y remédier, la désignation d’une personne qui centralise la gestion des accès à l’infrastructure. C’est la solution retenue et de nouveaux statuts sont rédigés dans ce sens.

Le Responsable technique est responsable de la gestion de l’équipe technique et des accès à l’infrastructure de Picasoft. C’est la personne qui est apte à donner ou retirer les accès aux différents bénévoles de l’équipe technique. De plus le Responsable technique s’assure que l’infrastructure de Picasoft est correctement maintenue dans le temps.

C’est à ce moment de l’histoire que la péripétie principale entre en piste (bruits de roulement de tambour).

Une mayonnaise qui ne prend pas

On a testé pour vous : mélanger bureaucratie sécuritaire et fluidité artisanale, puis secouer très fort. Eh bien, ne refaites pas ça chez vous : ça explose. Prenons un peu de recul et mettons-nous en quête du ver dans la pomme.

État de Picasoft après un semestre de nouveaux statuts : allégorie. Crédit photo : SDIS du Bas-Rhin

 

D’un côté, le rôle de responsable technique est très inconfortable. Mettez-vous en condition : vous êtes seul·e responsable de la distribution des accès. Grand pouvoir, grandes responsabilités, tout ça. Une seule erreur de votre part et l’image publique de Picasoft part en lambeaux, la confiance avec. Une mise à jour de sécurité oubliée, un compte de bénévole piraté, une machine et ses données inondées : vous êtes techniquement responsable. Votre obsession devient dès lors la réduction systématique de la surface d’attaque de l’infrastructure. Pour autant, trancher entre « avoir accès » et « ne pas avoir accès » est trop binaire ; un membre pourrait avoir des droits d’édition sur la documentation sans pouvoir supprimer la base de données de Mattermost. Vous appliquez naturellement le très classique principe de moindre privilège (principle of least privilege en anglais). Chacun·e ne doit pouvoir faire que ce dont iel a strictement besoin, et pas plus. Autrement dit, la compromission des accès d’un·e membre ou ses maladresses ont un impact limité à ses privilèges — un compte de wiki ne pourra jamais supprimer les données de Mattermost. La question épineuse, en tant que responsable technique, est de définir les contours du besoin de chaque membre. Bien entendu, vous pourriez faire confiance et considérer que chacun·e demande les accès dont il a besoin. Mais c’est vous qui portez cette lourde responsabilité ; c’est vous qui connaissez les risques. Alors à défaut de sombrer dans la folie, vous préparez des procédures standardisées et un examen minutieux des demandes d’accès. Pas de sécurité sans ordre.

Maintenant, changement de costume. Vous êtes membre de Picasoft, enthousiaste et plein·e de vie. Vous aimez son fonctionnement artisanal et les projets spontanés qui en émergent. Pour vous, pas de doute : on se forme en faisant, et surtout en faisant des erreurs. C’est d’ailleurs aussi pour vous former que vous avez rejoint le navire. Alors, vous faites de votre mieux. Parfois vous cassez quelque chose, vous pleurez en vous demandant pourquoi vous n’avez pas choisi le maraîchage, puis, après vous être fait une raison, vous réparez du mieux que vous pouvez. Vous en sortez grandi. D’ailleurs, ces temps-ci, personne ne s’occupe de la maintenance des services — il faut dire que c’est un peu rébarbatif. Pas facile de se motiver. Mais aujourd’hui, après votre meilleur chocolat chaud, vous vous sentez en pleine forme. Time to upgrade. Vous enfilez votre plus beau hoodie, et quand vient minuit, vous vous lancez. Sur l’écran, les commandes se succèdent au rythme effréné de vos frappes. Les tests sont impeccables, la conclusion implacable : plus qu’à mettre en production et aller vous coucher. Mais au moment de lancer la dernière commande, un message s’affiche : permission denied. Accès refusé. Incrédule, vous essayez à nouveau, comme on tente d’ouvrir une porte qu’on sait fermement verrouillée. Il faut vous rendre à l’évidence, impossible de faire quoi que ce soit : on ne négocie pas plus avec les ordinateurs qu’avec les portes. Frustré·e, votre motivation tombe à plat. Vous rallumez la lumière et vous partagez votre malheureuse aventure au reste de l’équipe technique, avant d’aller vous rouler en boule sous votre couette.

Le lendemain matin, la réponse manque de vous faire tomber de votre chaise : ce refus n’est pas une erreur, bien au contraire : vous n’aviez pas besoin a priori de ces accès. Question de surface d’attaque. Si vous avez pour projet de faire la maintenance des services, pas de soucis : prévenez un peu avant et on vous donnera les accès nécessaires. Question de sécurité. Vous ne voudriez pas mettre à mal la confiance des gens, n’est-ce-pas ? Et puis c’est quand même pas grand-chose, de demander des accès. On ne vous interdit rien, on fait juste de la prévention. Pas de quoi en faire un plat.

Dernier tour de veste : vous êtes franchement arrivé·e dans l’équipe technique, et motivé·e comme jamais pour monter un nouveau service. On s’y met ? Eh ien, j’espère que vous avez du temps devant vous. Car avec le raisonnement qui précède, chaque étape (test, partage, déploiement, gestion des sauvegardes, communication…) nécessite des accès différents, et autant de potentielles discussions et argumentations sur votre légitimité à briguer ces accès. Légitimité dont l’appréciation revient en dernière instance au/à la responsable technique.

J’espère que cette mise en situation, quoique caricaturale, donne une bonne intuition des tensions qui macèrent pendant cette année. D’un côté, une responsabilité forte et mal définie qui repose sur une seule personne ; de l’autre, des membres de bonne volonté qui perdent leur autonomie et dont les actions sont sous contrôle.

Libre ou open source ?

À l’été 2019, le semestre se clôt par une assemblée générale électrique. Les tensions accumulées appellent un changement radical, c’est-à-dire un changement qui prend le problème à la racine. Or ces tensions ne sont que des manifestations d’un problème plus fondamental. La boîte de Pandore est ouverte.

Le procès verbal de l’AG donne quelques exemples de dissensus qui agitent les membres :

— Picasoft peut-elle être militante ou politique ?
— Picasoft doit-elle se positionner sur des questions éthiques, par exemple pour le choix d’une banque ?
— Qui doit décider de l’attribution des accès à l’infrastructure ? Faut-il privilégier la sécurité ou l’ouverture ?
— La monnaie libre rentre-t-elle dans les prérogatives de l’association ?

Passer à une banque plus dosée en éthique et payer plus cher, donc avoir moins d’argent pour agir, ou rester clients d’une banque bon marché, mais qui finance des projets écocides ? Organiser des événements autour de la monnaie libre, dont l’écosystème est très libriste-compatible, mais qui assume une critique radicale du système économique ?

En sous-texte de toutes ces questions, on retrouve en réalité la question à cent balles : une association d’informatique libre a-t-elle vocation à se positionner politiquement et idéologiquement ? Cette question fera peut-être tiquer certain·es d’entre vous, car elle est mal posée : elle suppose qu’il soit possible d’agir apolitiquement. Or, dans les exemples précédents, ne pas se positionner signifie en réalité adhérer au système dominant. Ne pas choisir une banque qui refuse de soutenir des projets écocides quand on en a les moyens, c’est adhérer, même mollement, à la ruine écologique. Par cette affirmation, je ne cherche à culpabiliser personne. Mais surtout en tant qu’association, c’est-à-dire en tant que personne morale, il est important de réaliser ce que veut vraiment dire rester apolitique. Ce qui ne veut pas dire que c’est une posture indéfendable.

À gauche, on lit « Proposition : je suis apolitique. »
À droite, on lit : « Traduction : je suis privilégié et ne suis pas affecté par les politiques actuelles, j’en suis même peut-être bénéficiaire ».

 

Dans notre milieu, cette question prend la forme de la vieille dispute open source versus libre. Ce débat est resté relativement confidentiel, bien que la mainmise d’Amazon, Google ou Microsoft sur des outils open-source contribue à amplifier les voix qui s’élèvent contre l’open source. Je vous en propose un résumé à la hache. Open source et libre partagent les mêmes libertés fondamentales, exprimées par des licences qui ont valeur de contrat. Ces quatre libertés ne sont plus à présenter : droit d’utiliser, d’étudier, de modifier et de redistribuer.

Les tenants de l’open source s’intéressent particulièrement à la sécurité et à la performance : par exemple, l’ouverture du code d’un logiciel au plus grand nombre permet de détecter les failles plus rapidement. Aussi, les efforts des développeur·ses pourront se concentrer en un seul point plutôt que d’être gaspillés pour développer dix fois le même logiciel (competitive waste). Dans l’open source, l’accent est mis sur la liberté absolue : on ne vous donne que des droits mais aucun devoir. L’exemple typique est la licence MIT, qui dit en substance : faites ce que vous voulez. Vous pouvez donc faire de l’open source tout en créant un écosystème qui utilise tous les leviers pour rendre vos utilisateurs captifs d’outils qui, par ailleurs, ne sont pas libres3.

En miroir, le mouvement du libre a pour vocation de créer des communs. Un commun ne peut pas être approprié par une personne qui en tirerait du profit sans contrepartie. Cette vision des communs prône l’absolue liberté. L’exemple typique serait alors la licence GPL, qui est contagieuse : si vous utilisez un programme sous licence GPL comme base d’un autre programme, celui-ci devra également être sous licence GPL ou équivalent. De la sorte, vous rendez à la communauté ce qu’elle vous a donné. Cette contrainte ne contredit pas les 4 libertés fondamentales, mais porte en elle une vision marquée de l’intérêt général : il ne saurait être optimisé par une liberté totale, bien au contraire. Pour le dire en peu de mots, le libre est anti-libéral.

Pour clarifier cette affirmation un peu provocatrice, il est intéressant de s’attarder sur Eric S. Raymond, un défenseur emblématique de l’open source. Il est notamment l’auteur de la Cathédrale et le Bazar, un essai populaire qui théorise différents modes de développement de logiciels open source. Dans une réponse à une critique, il clarifie son positionnement idéologique :

In fact, I find the imputation of Marxism deeply and personally offensive as well as untrue. While I have made a point of not gratuitously waving my politics around in my papers, it is no secret in the open-source world that I am a libertarian, a friend of the free market, and implacably hostile to all forms of Marxism and socialism (which I regard as coequal in evil with Nazism).

Ce qui, traduit relativement fidèlement, donne ceci (tenez-vous bien) :

En fait, je trouve l’imputation de marxisme [à cet essai] profondément et personnellement offensante et inexacte. Même si j’ai toujours mis un point d’honneur à ne pas étaler mes convictions politiques dans mes articles [de recherche], ce n’est un secret pour personne dans le monde de l’open source que je suis libertarien favorable au libre marché et implacablement hostile à toutes formes de marxisme et de socialisme (que je considère comme aussi dangereux que le nazisme).

Là encore, l’exemple est caricatural, mais donne une intuition correcte du conflit. La parenthèse étant fermée, il était évident qu’une remise en cause de l’identité profonde de l’association ne pouvait pas être résolue en quelques heures.

L’AG vote alors pour le compromis suivant : le bureau proposé est élu, mais à la condition qu’il organise une journée de réflexion qui devra aboutir à des propositions concrètes pour trancher ces questions. Le bureau signe le mandat, l’AG est close. Les vacances peuvent enfin aérer les esprits.

Haïssez le jeu, pas les joueurs

À l’automne 2019, le premier Picacamp est organisé. Pas du tout inspiré du Framacamp (comme rien n’est inspiré de Framasoft d’ailleurs), une équipe de choc de — tenez-vous bien — quatre bénévoles se réunit à cette occasion.

Quatre, c’est peu. Trop peu pour décider de l’orientation idéologique de Picasoft. Sautons directement à la conclusion de cette journée : le problème n’est pas là. Il est encore plus profond. Décider d’une posture politique ne changera rien, car c’est le mode de gouvernance même de Picasoft qui est en cause.

En d’autres termes, ce qui s’est passé n’est pas un problème de personnes : certes, l’asso aurait pu continuer à rouler quelques semestres avec une bande de potes très complices, mais ses règles de fonctionnement étaient propices à faire émerger ce genre de tensions. Comme le rappelle le mathématicien et vulgarisateur Lê Nguyên Hoang dans son excellente série de vidéos sur la démocratie, il faut haïr le jeu, pas les joueurs.

En d’autres termes, les règles du jeu — ici les statuts — déterminent très majoritairement les comportements des joueurs, sur le long terme et à l’échelle globale. Une intuition de cette idée est que toutes les personnes qui jouent au Monopoly ne sont pas d’affreux·ses capitalistes ; de même, tout·es les responsables techniques ne sont pas d’affreux·ses autoritaires. Pourtant, les règles du jeu les incitent à se comporter comme tel·les.

Mais alors, si mon analyse se tient, pourquoi est-ce-que ce genre de conflits n’est pas arrivé à Rhizome, puisque les statuts de Picasoft sont peu ou prou les mêmes ? J’ai posé cette question à Kyâne — qui a adapté les statuts de Rhizome pour Picasoft. L’explication tient en ce que chez Rhizome, les modalités d’implication sont très différentes. D’un côté, il y a les abonné·es, celleux qui louent un accès à Internet, et qui votent en AG. De l’autre côté, il y a celleux qui font, qui mettent les mains dans le cambouis. Il y a peu de bras : les personnes motivées sont plus que bienvenues. Le format « pouvoir à l’AG et petit bureau qui mène les affaires », dixit Kyâne, fonctionne bien.

Mais chez Picasoft, les utilisateur·ices ne sont pas membres. Les membres, c’est un groupe hétéroclite fait de sympathisant·es, de bonnes volontés qui donnent parfois un coup de main, de motivé·es qui passent leurs nuits à déboguer, de personnes qui aiment aller en conventions, de curieux·ses timides qu’on ne voit jamais. Ce spectre de participation ne peut pas être correctement représenté par un bureau qui fait autorité.

À bien y réfléchir, l’entité même de bureau n’a plus de sens quand on lui ôte la fonction qu’elle avait chez Rhizome. C’est un archétype, un cliché, un spectre qui hante le monde associatif. C’est le modèle auquel nous sommes le plus exposés, des associations aux entreprises cotées en bourse en passant par notre démocratie représentative. Aussi, une recherche de modèle de statuts sur Internet a peu de chances de donner idée d’un autre système. C’est ainsi que la bureau-cratie et ses pièges se reproduisent en infrabasses.

La conclusion est sans appel : la gouvernance de l’association doit être intégralement repensée pour permettre l’inclusion de chaque membre et la répartition des responsabilités.

Les pièges de l’horizontalité

J’espère vous avoir convaincu⋅e, à ce stade, qu’un mode de gouvernance plus horizontal est nécessaire. Mais avec horizontal, on a tout et rien dit. On comprend bien qu’on l’oppose à une gouvernance verticale, hiérarchique, et on y perçoit des velléités d’inclusion et de participation. Mais l’horizontalité est du même genre que la bienveillance, l’inclusion ou l’agilité, à savoir un vernis qui part bien vite sans actes concrets.

Une première approche serait prendre l’idée de bureau à contre-pied et de soumettre l’ensemble des décisions au vote. De la sorte, chaque décision représente l’association dans sa majorité. Le problème évident de cette approche est que toute initiative est bloquante jusqu’à participation des membres. Or tout le monde est toujours occupé ; se tenir au courant des tenants et aboutissants de l’ensemble de la vie d’une association est coûteux ; donner son avis sur tout est encore plus difficile4. De plus, ce système charge les personnes motivées : elles doivent convaincre tou·tes les membres et aller quémander des voix. Ce système produit facilement du découragement et il est hostile aux initiatives originales. Il pousse à un fonctionnement plutôt conservateur.

Une approche orthogonale serait d’instaurer une do-ocratie : en gros, les personnes qui font ont le pouvoir. La do-ocratie est séduisante car les personnes motivées ne sont pas empêchées de faire, mais ne sont pas non plus statutairement tributaires de l’autorité. Il suffit de s’impliquer activement pour avoir son mot à dire. C’est d’ailleurs le mode informel qu’adoptent de nombreuses structures, où « déjà qu’il y a pas beaucoup personne pour faire les trucs chiants, si en plus on les emmerde, y’aura vraiment plus personne ».

Cependant, ce système est problématique à deux égards. D’abord, à y regarder de plus près, c’est virtuellement le même système que celui des premiers statuts. En effet, chez Rhizome, ce sont ceux qui font qui se présentent pour constituer un bureau, à qui l’AG confie la gestion quotidienne. À Picasoft, donc, ce sont généralement les personnes qui s’investissaient le plus à un moment donné qui se retrouvent membres du bureau, et confisquent involontairement le pouvoir aux autres membres.

Mais ce système fait pire encore : il déstructure le mode de gouvernance. Il ne donne aucun moyen de résoudre les conflits entre les doers, i.e. celles et ceux qui s’impliquent. Mais qui fait, et qui ne fait pas ? Où est la limite ? Qui est légitime et aux yeux de qui ? Comment s’assurer que ce n’est pas à celui qui gueule le plus fort ? À bien y regarder, ce système simpliste s’identifie à la caricature classique de l’anarchisme, qui voudrait que la loi du plus fort soit le seul principe qui tienne. C’est au fond l’idée nauséabonde du darwinisme social : briser tout cadre qui pourrait gêner la compétition, dont sortiront vainqueur·es les plus aptes. Si l’on s’en fie à cette idée, toute association sans structure devrait un jour arriver à son fonctionnement optimal. Ça vous rappelle quelque chose ?

Sans transition, l’article de blog du chaton deuxfleurs au sujet de l’autogestion est particulièrement éclairant. Je vais en paraphraser une partie (peut-être mal, alors foncez le lire!). Il s’attarde sur un texte de Jo Freeman, une avocate, politologue et militante féministe américaine. Intitulé « La tyrannie de l’absence de structure », elle le prononce en 1970 devant des militant·es féministes. On peut en trouver une traduction en français sur Infokiosques.

Ce texte s’adresse aux « groupes sans leader ni structure » du Mouvement de Libération des Femmes étatsunien. Jo Freeman remarque que l’absence de structure est « passée du stade de saine contre-tendance à celui d’idée allant de soi ».

Lors de la gestation du mouvement, le caractère détendu et informel qui régissait [le groupe de conscientisation] était propice à la participation aux discussions, et le climat de soutien mutuel qui se créait en général permettait une meilleure expression des visions personnelles. [Des problèmes surgirent lorsque] les petits groupes d’action épuisèrent les vertus de la conscientisation et décidèrent qu’ils voulaient faire quelque chose de plus concret.

Assez de contexte : pourquoi est-ce-que l’absence de structure ne fonctionne pas ? Jo Freeman est claire : parce que l’absence de structure n’existe pas. Nos différences interpersonnelles, nos intentions, la distribution des tâches — qu’elle soit équitable ou injuste — est de fait une structure, au même titre que ne pas se positionner est un positionnement et l’apolitisme n’existe pas. Il est seulement possible de choisir la nature de la structure : formelle ou informelle.

Lorsque la structure est intégralement informelle, deux phénomènes peuvent se produire : la formation d’élites et de stars.

Une élite est un petit groupe de gens qui domine un autre groupe plus grand […], et qui agit fréquemment sans son consentement ou sa connaissance.

Une élite, ce n’est pas une conspiration de méchants de film. Ce peut être ce groupe de bons potes au sein d’un mouvement, qui boit des coups au bar et y discute du mouvement. L’élite échange en son sein plus d’information que n’en reçoit le reste du groupe. Elle peut faire bloc pour pousser telle ou telle orientation, dans des discussions déséquilibrées d’avance. C’est moins par malveillance que par contingence que les élites se forment : leur activité politique et leur amitié coïncident. C’est aussi ce qui rend difficile leur dissolution, car l’élite ne commet pas de faute fondamentale. Elle s’entretient par affinité, et comme gagner la confiance de l’élite existante est difficile et nécessite d’intégrer ses codes, elle est sujette à une certaine homogamie.

Quant aux stars, ce sont des personnes qui sont mises en avant au sein du groupe, voire qui le représente dans l’inconscient collectif. Mais au sens de Freeman, elle n’ont pas été désignées explicitement. Une personne charismatique qui s’exprime bien prendra souvent plus de place. En plus de favoriser les normes dominantes, le « statut » de star n’est pas révocable dans la mesure où il n’a été attribué par personne. La star, comme l’élite, est rarement consciente de son statut. Les critiques légitimes qu’elle reçoit peuvent être vécues violemment et la conduire à quitter le groupe, et par là même, le fragiliser.

Pour lutter contre l’émergence d’élites et de stars, Jo Freeman propose 7 principes pour formaliser la structure d’un mouvement de sorte à faire émerger une horizontalité inclusive et politiquement efficace :

  1. Assigner démocratiquement des tâches précises à des personnes concrètes, qui ont préférablement manifesté leur intérêt.
  2. Assurer que toute personne qui exerce une autorité le fasse sous le contrôle du groupe.
  3. Distribuer l’autorité au plus grand nombre de personnes raisonnablement possible.
  4. Faire tourner les postes ; pas trop souvent (pour avoir le temps d’apprendre), pas trop peu (pour ne pas créer d’élite).
  5. Rationaliser les critères d’assignation des tâches, par compétence plutôt que par sympathie.
  6. Diffuser l’information au plus grand nombre, le plus possible. L’information, c’est le pouvoir.
  7. Rendre accessibles les ressources de manière équitable (un local, du matériel, des identifiants…)

Ce billet tirant déjà en longueur, je vous laisse vous convaincre de la pertinence des propositions, et à la lumière de cette analyse, je vous propose de passer à l’examen de la tout-doux-cratie. 😙

Bienvenue en tout-doux-cratie

La tout-doux-cratie est le mode de gouvernance qui émerge pendant le Picacamp. Il est forgé selon trois principes :

  • Faire et laisser faire (permettre à Picasoft d’être un lieu où chacun·e peut agir) ;
  • Se préoccuper des opinions des autres membres (partager l’information, s’informer)
  •  Rechercher le consensus (accepter les compromis, être amical·e et favoriser la vie ensemble).

Tout système de gouvernance s’ancre sur des partis pris adaptés au contexte dans lequel il se déploie. Pour Picasoft, on l’a vu, il y a un véritable enjeu à faciliter l’action des personnes motivées sans écraser les autres ; c’est pourquoi le nom dénote la fluidité (to-do) et le soin (tout-doux). L’intention du système de règles lui-même est d’être suffisamment simple pour être intégré rapidement (fluidité) mais suffisamment robuste pour être mis à l’épreuve dans les cas difficiles (soin).

Voyons très concrètement comment ça se passe5. Tout membre peut engager des actions, séparées en deux catégories.

  • Une action ordinaire ressemble aux actions habituelles menées dans le cadre de l’Association. Le règlement intérieur contient une tout-doux-liste qui aide à déterminer si une action est ordinaire.
  • Une action extraordinaire n’est pas habituelle dans le cadre et l’historique de l’Association, en particulier lorsqu’elle n’est pas réversible.

Certaines actions (modification du règlement intérieur, exclusion d’un membre, dissolution de l’association…) sont statutairement extraordinaires. En cas de doute ou de cas limite, l’action extraordinaire est préférée. Le mode de décision collectif diffère en fonction de l’action.

Une action ordinaire peut être lancée sans accord préalable, à partir du moment où la personne informe les membres de l’association de son action. Tout membre a la possibilité de suspendre l’action en posant un verrou non-bloquant : il lui faut alors convaincre une majorité des membres que l’action doit être annulée. S’il n’y parvient pas, l’action est maintenue.

Une action extraordinaire est associée à un verrou bloquant par défaut : l’action peut être réalisée uniquement si une majorité de membres y sont favorables, ou si dix jours se sont écoulés sans qu’une majorité des membres n’y soient défavorables.

Voici un petit résumé graphique pour tenter de rendre le processus plus tangible.

Organigramme décrivant le processus de décision pour une action extraordinaire.
Action extraordinaire : peut se mener en cas de consensus **ou** d’absence de dissensus fort à l’issue d’un délai.

Organigramme décrivant le processus de décision pour une action ordinaire.
Action ordinaire : laisser faire a priori, pouvoir revenir dessus a posteriori.

Pour lire la version vraiment formalisée du processus de décision en tout-doux-cratie, direction les statuts : https://wiki.picasoft.net/lib/exe/fetch.php?media=administratif:status-picasoft_p20.pdf

Si ce fonctionnement peut paraître alambiqué, il provient du raisonnement suivant :

  1. L’horizontalité par consensus à majorité absolue ne fonctionne pas ;
  2. Le « laisser-faire sauf en cas de véto » donne un pouvoir disproportionné à chaque membre, en tant qu’il peut empêcher l’action d’un autre membre seul et pour de mauvaises raisons (détruire est plus facile que construire) ;
  3. La charge doit alors peser sur la personne qui est contre ; elle devra prouver que l’action doit être annulée en sollicitant un rejet collectif. Si elle n’y parvient pas, alors l’action est légitime à être menée.

Ce raisonnement a des accents conflictuels qui semblent bien loin du tout-doux. C’est pourquoi la tout-doux-cratie n’utilise pas ce mécanisme en fonctionnement nominal. En première instance, la recherche du consensus et la discussion sont les modes d’interaction privilégiés. Le vote agit généralement comme une chambre d’enregistrement. En d’autres termes, un membre qui a connaissance d’un dissensus devrait d’abord informer et, le cas échéant, chercher le compromis avant de lancer une action ordinaire ou extraordinaire. Si le dissensus persiste, le vote permettra de rendre compte de l’opinion générale des membres, tout en préservant la personne agissante d’une trop grande charge mentale.

De ce fonctionnement découle naturellement l’abolition du bureau. L’association ayant toujours besoin de personnes pour la représenter (juridiquement, économiquement…), trois personnes sont élues chaque semestre pour constituer un genre de spectre de bureau :

  • Un·e représentant·e administratif, qui doit lever la main quand quelqu’un demande le·la président·e et qui signe tous les documents administratifs concernant Picasoft ;
  • Un·e représentant·e financie·re, qui effectue les opérations bancaires ;
  • Un·e représentant·e technique, qui distribue les accès aux machines.

Chaque représentant·e est la seule personne en capacité de réaliser ces actions ou de les déléguer. En revanche, la différence majeure avec l’ancien bureau est que les représentant·es n’ont aucun pouvoir décisionnaire ; iels exécutent simplement les décisions de l’association.

Dans la mesure où leurs actions peuvent engager leur responsabilité, iels disposent d’un droit de retrait, c’est-à-dire de la possibilité de démissionner sans aucune justification en cas de refus d’exécuter une action. Là aussi, ce droit de retrait correspond à la dernière alternative et n’a en pratique jamais été utilisé.

Enfin, la tout-doux-cratie a été conçue pour fonctionner correctement même en système ouvert, c’est-à-dire que devient membre toute personne qui en fait la demande. Si la plupart des associations fonctionnent par cooptation, Picasoft est une association dont les membres tournent beaucoup et qui a besoin de maintenir ses effectifs. Rendre l’adhésion peu coûteuse en temps et gratuite incite plus facilement à tenter l’expérience. C’est sans danger, car l’arrivée d’un·e nouveau·elle ne peut pas bouleverser l’association du fait du mode de décision : si cette nouvelle personne se trouve en opposition avec le reste des membres, elle ne sera pas en mesure de bloquer les décisions, quel que soit son poste. Enfin, si sa présence est réellement problématique, son exclusion peut être décidée par action extraordinaire.

Être membre implique cependant un nombre minimal d’obligations définies dans les statuts.

  • Agir conformément à l’objet de l’Association ;
  • Aider les autres à agir ;
  • Participer au processus de tout-doux-cratie, c’est-à-dire donner son avis lorsqu’il est demandé, voter, rester informé·e et participer aux AG.

En pratique, seul la dernière obligation est cruciale, capitale, essentielle, indispensable, vitale, critique ; bref, vous l’aurez compris, faut pas passer à côté. Car pour bien fonctionner, la tout-doux-cratie a besoin de l’opinion de ses membres : sans prendre le temps de s’informer, on peut se lancer dans des actions conflictuelles. Sans voter, on allonge le délai de réalisation des actions extraordinaires et on démotive ses auteur·ices. Sans participer aux discussions, on perd le lien et la dynamique qui animent Picasoft.

En définitive, ce sont la circulation horizontale de l’information et la participation active aux décisions qui forment les clés de voûte d’une tout-doux-cratie saine.

Gardez de la place pour le dessert

Nous arrivons tranquillement à la fin du premier chapitre de cette enquête. Vous l’aurez compris, Picasoft fonctionne depuis plus de deux ans en tout-doux-cratie. Ce mode de gouvernance n’a rien de révolutionnaire. Au contraire, il s’appuie sur des idées théorisées depuis plusieurs décennies et qui structurent nombre de collectifs militants, plus ou moins informellement. On lui a donné un nom car on aime bien les jeux de mots mignons, et qu’on peut en parler plus facilement, voilà tout. ✨

Pour autant, si la critique de la bureau-cratie est facile et que j’ai présenté la tout-doux-cratie sous son meilleur jour, à ce stade, il vous manque cruellement de passage à la pratique à vous mettre sous la dent. Et l’occasion, inévitable, de relever les failles de ce système. Mais ça… ce sera pour la seconde et dernière partie de ce billet, par ici : https://framablog.org/2022/10/24/deux-ans-en-tout-doux-cratie-bilan-et-perspectives/ 😄

 

Un grand merci à Antoine, Audrey, Gaëtan, Jérôme, Stph, R01, Tobias, et tout·es les membres de Picasoft et de Framasoft pour leurs contributions, relecture, corrections et leur accueil bienveillants!


  1. https://www.associations.gouv.fr/1001-redaction-statuts-association.html ↩︎
  2. En effet, l’idée qu’il est normal que les services et contenus soit disponibles partout et tout le temps est largement et sciemment véhiculée par l’imaginaire du « Cloud », des nuages. La très haute disponibilité est par ailleurs un sujet de recherche actif. L’idée de diminuer la disponibilité d’un service rencontre des résistances similaires à l’idée de « décroissance », parfois vécue comme une régression. Pourtant, il y a de quoi s’interroger sur la disponibilité totale, mais c’est un autre sujet. Ne pas jouer le jeu du Cloud, c’est donc ne pas se fixer un objectif de disponibilité, mais en restant prudent pour ne pas se marginaliser. ↩︎
  3. Les mécanismes par lesquels l’open-source devient un puissant outil de domination politique et économique sont passionnants, même si largement au-delà du sujet principal de ce billet. Néanmoins, pour les anglophones, cet article récemment paru sur l’éditeur de code open-source Visual Studio Code, développé par Microsoft, est édifiant : https://ghuntley.com/fracture. ↩︎
  4. D’ailleurs, il est vraisemblable qu’avoir un avis sur tout n’est pas souhaitable. Un système qui oblige à prendre chaque décision à la majorité sera soit démesurément inefficace (car lent), soit irréfléchi (car la plupart des votes seront au doigt mouillé). C’est un raccourci que je me permets de faire dans cet espace plus confidentiel des notes de bas de page. On peut légitimement objecter que la lenteur n’est pas un problème en soi, et que des modes de gouvernance l’assument, et même plus, la revendiquent. Voir le cas fascinant des zapatistes : https://hal.archives-ouvertes.fr/hal-02567515/document ↩︎
  5. Les curieux·ses trouveront la formalisation dans nos statuts et notre règlement intérieur. ↩︎



Bifurquer avant l’impact : l’impasse du capitalisme de surveillance

La chaleur de l’été ne nous fait pas oublier que nous traversons une crise dont les racines sont bien profondes. Pendant que nos forêts crament, que des oligarques jouent aux petits soldats à nos portes, et vu que je n’avais que cela à faire, je lisais quelques auteurs, ceux dont on ne parle que rarement mais qui sont Ô combien indispensables. Tout cela raisonnait si bien que, le temps de digérer un peu à l’ombre, j’ai tissé quelques liens avec mon sujet de prédilection, la surveillance et les ordinateurs. Et puis voilà, paf, le déclic. Dans mes archives, ces mots de Sébastien Broca en 2019 : « inscrire le capitalisme de surveillance dans une histoire plus large ». Mais oui, c’est là dessus qu’il faut insister, bien sûr. On s’y remet.

Je vous livre donc ici quelques réflexions qui, si elles sont encore loin d’être pleinement abouties, permettront peut-être à certains lecteurs d’appréhender les luttes sociales qui nous attendent ces prochains mois. Alimentons, alimentons, on n’est plus à une étincelle près.

— Christophe Masutti


Le capitalisme de surveillance est un mode d’être du capitalisme aujourd’hui dominant l’ensemble des institutions économiques et politiques. Il mobilise toutes les technologies de monitoring social et d’analyse de données dans le but de consolider les intérêts capitalistes à l’encontre des individus qui se voient spoliés de leur vie privée, de leurs droits et du sens de leur travail. L’exemple des entreprises-plateformes comme Uber est une illustration de cette triple spoliation des travailleurs comme des consommateurs. L’hégémonie d’Uber dans ce secteur d’activité s’est imposée, comme tout capitalisme hégémonique, avec la complicité des décideurs politiques. Cette complicité s’explique par la dénégation des contradictions du capitalisme et la contraction des politiques sur des catégories anciennes largement dépassées. Que les décideurs y adhèrent ou non, le discours public reste campé sur une idée de la production de valeur qui n’a plus grand-chose de commun avec la réalité de l’économie sur-financiarisée.

Il est donc important d’analyser le capitalisme de surveillance à travers les critiques du capitalisme et des technologies afin de comprendre, d’une part pourquoi les stratégies hégémoniques des multinationales de l’économie numérique ne sont pas une perversion du capitalisme mais une conséquence logique de la jonction historique entre technologie et finance, et d’autre part que toute régulation cherchant à maintenir le statu quo d’un soi-disant « bon » capitalisme est vouée à l’échec. Reste à explorer comment nous pouvons produire de nouveaux imaginaires économiques et retrouver un rapport aux technologies qui soit émancipateur et générateur de libertés.

paquet de cigarette dont la marque est "Capitalism" avec pour avertissement "the cancer of the working class"
Une critique du capitalisme qui s’est déjà bien étoffée au cours de l’histoire.

Situer le capitalisme de surveillance dans une histoire critique du capitalisme

Dans la Monthly Review en 2014, ceux qui forgèrent l’expression capitalisme de surveillance inscrivaient cette dernière dans une critique du capitalisme monopoliste américain depuis la fin de la Seconde Guerre Mondiale. En effet, lorsqu’on le ramène à l’histoire longue, qui ne se réduit pas aux vingt dernières années de développement des plus grandes plateformes numériques mondiales, on constate que le capitalisme de surveillance est issu des trois grands axes de la dynamique capitaliste de la seconde moitié du XXᵉ siècle. Pour John B. Foster et Robert W. McChesney, la surveillance cristallise les intérêts de marché de l’économie qui soutient le complexe militaro-industriel sur le plan géopolitique, la finance, et le marketing de consommation, c’est-à-dire un impérialisme sur le marché extérieur (guerre et actionnariat), ce qui favorise en retour la dynamique du marché intérieur reposant sur le crédit et la consommation. Ce système impérialiste fonctionne sur une logique de connivence avec les entreprises depuis plus de soixante ans et a instauré la surveillance (de l’espionnage de la Guerre Froide à l’apparition de l’activité de courtage de données) comme le nouveau gros bâton du capitalisme.

Plus récemment, dans une interview pour LVSL, E. Morozov ne dit pas autre chose lorsqu’il affirme qu’aujourd’hui l’enjeu des Big Tech aux États-Unis se résume à la concurrence entre les secteurs d’activités technologiques sur le marché intérieur et « la volonté de maintenir le statut hégémonique des États-Unis dans le système financier international ».

Avancées technologiques et choix sociaux

Une autre manière encore de situer le capitalisme de surveillance sur une histoire longue consiste à partir du rôle de l’émergence de la microélectronique (ou ce que j’appelle l’informatisation des organisations) à travers une critique radicale du capitalisme. C’est sur les écrits de Robert Kurz (et les autres membres du groupe Krisis) qu’il faut cette fois se pencher, notamment son travail sur les catégories du capitalisme.

Ici on s’intéresse à la microélectronique en tant que troisième révolution industrielle. Sur ce point, comme je le fais dans mon livre, je préfère maintenir mon approche en parlant de l’informatisation des organisations, car il s’agit surtout de la transformation des processus de production et pas tellement des innovations techniques en tant que telles. Si en effet on se concentre sur ce dernier aspect de la microélectronique, on risque d’induire un rapport mécanique entre l’avancement technique et la transformation capitaliste, alors que ce rapport est d’abord le résultat de choix sociaux plus ou moins imposés par des jeux de pouvoirs (politique, financier, managérial, etc.). Nous y reviendrons : il est important de garder cela en tête car l’objet de la lutte sociale consiste à prendre la main sur ces choix pour toutes les meilleures raisons du monde, à commencer par notre rapport à l’environnement et aux techniques.

Pour expliquer, je vais devoir simplifier à l’extrême la pensée de R. Kurz et faire des raccourcis. Je m’en excuse par avance. R. Kurz s’oppose à l’idée de la cyclicité des crises du capitalisme. Au contraire ce dernier relève d’une dynamique historique, qui va toujours de l’avant, jusqu’à son effondrement. On peut alors considérer que la succession des crises ont été surmontées par le capitalisme en changeant le rapport structurel de la production. Il en va ainsi pour l’industrialisation du XIXᵉ siècle, le fordisme (industrialisation moderne), la sur-industrialisation des années 1930, le marché de consommation des années 1950, ou de la financiarisation de l’économie à partir des années 1970. Pour R. Kurz, ces transformations successives sont en réalité une course en avant vers la contradiction interne du capitalisme, son impossibilité à renouveler indéfiniment ses processus d’accumulation sans compter sur les compensations des pertes de capital, qu’elles soient assurées par les banques centrales qui produisent des liquidités (keynésianisme) ou par le marché financier lui-même remplaçant les banques centrales (le néolibéralisme qui crée toujours plus de dettes). Cette course en avant connaît une limite indépassable, une « borne interne » qui a fini par être franchie, celle du travail abstrait (le travail socialement nécessaire à la production, créant de la valeur d’échange) qui perd peu à peu son sens de critère de valeur marchande.

Cette critique de la valeur peut être vue de deux manières qui se rejoignent. La première est amenée par Roswitha Scholz et repose sur l’idée que la valeur comme rapport social déterminant la logique marchande n’a jamais été critiquée à l’aune tout à fait pratique de la reproduction de la force de travail, à savoir les activités qu’on détermine comme exclusivement féminines (faire le ménage, faire à manger, élever les enfants, etc.) et sont dissociées de la valeur. Or, cette tendance phallocrate du capitalisme (comme de la critique marxiste/socialiste qui n’a jamais voulu l’intégrer) rend cette conception autonome de la valeur complètement illusoire. La seconde approche situe dans l’histoire la fragilité du travail abstrait qui dépend finalement des processus de production. Or, au tournant des années 1970 et 1980, la révolution informatique (la microélectronique) est à l’origine d’une rationalisation pour ainsi dire fulgurante de l’ensemble des processus de production en très peu de temps et de manière mondialisée. Il devient alors plus rentable de rationaliser le travail que de conquérir de nouveaux espaces pour l’accumulation de capital. Le régime d’accumulation atteint sa limite et tout se rabat sur les marchés financiers et le capital fictif. Comme le dit R. Kurz dans Vies et mort du capitalisme1 :

C’est le plus souvent, et non sans raison, la troisième révolution industrielle (la microélectronique) qui est désignée comme la cause profonde de la nouvelle crise mondiale. Pour la première fois dans l’histoire du capitalisme, en effet, les potentiels de rationalisation dépassent les possibilités d’une expansion des marchés.

Non seulement il y a la perte de sens du travail (la rationalisation à des échelles inédites) mais aussi une rupture radicale avec les catégories du capitalisme qui jusque-là reposaient surtout sur la valeur marchande substantiellement liée au travail abstrait (qui lui-même n’intégrait pas de toute façon ses propres conditions de reproduction).

Très voisins, les travaux d’Ernst Lohoff et de Norbert Trenkle questionnent la surfinanciarisation de l’économie dans La grande dévalorisation2. Pour eux, c’est la forme même de la richesse capitaliste qui est en question. Ils en viennent aux mêmes considérations concernant l’informatisation de la société. La troisième révolution industrielle a créé un rétrécissement de la production de valeur. La microélectronique (entendue cette fois en tant que description de dispositifs techniques) a permis l’avancée de beaucoup de produits innovants mais l’innovation dans les processus de production qu’elle a induits a été beaucoup plus forte et attractive, c’est-à-dire beaucoup plus rentable : on a préféré produire avec toujours moins de temps de travail, et ce temps de travail a fini par devenir une variable de rentabilité au lieu d’être une production de valeur.

Si bien qu’on est arrivé à ce qui, selon Marx, est une incompatibilité avec le capitalisme : l’homme finit par se situer en dehors du processus de production. Du moins, il tend à l’être dans nos économies occidentales. Et ce fut pourtant une sorte d’utopie formulée par les capitalistes eux-mêmes dans les années 1960. Alors que les industries commençaient à s’informatiser, le rêve cybernéticien d’une production sans travailleurs était en plein essor. Chez les plus techno-optimistes on s’interrogeait davantage à propos des répercussions de la transformation des processus de production sur l’homme qu’à propos de leur impact sur la dynamique capitaliste. La transformation « cybernétique » des processus de production ne faisait pas vraiment l’objet de discussion tant la technologie était à l’évidence une marche continue vers une nouvelle société. Par exemple, pour un sociologue comme George Simpson3, au « stade 3 » de l’automatisation (lorsque les machines n’ont plus besoin d’intervention humaine directe pour fonctionner et produire), l’homme perd le sens de son travail, bien que libéré de la charge physique, et « le système industriel devient un système à boutons-poussoirs ». Que l’automatisation des processus de production (et aussi des systèmes décisionnels) fasse l’objet d’une critique ou non, ce qui a toujours été questionné, ce sont les répercussions sur l’organisation sociale et le constat que le travail n’a jamais été aussi peu émancipateur alors qu’on en attendait l’inverse4.

La surveillance comme catégorie du capitalisme

Revenons maintenant au capitalisme de surveillance. D’une part, son appellation de capitalisme devient quelque peu discutable puisqu’en effet il n’est pas possible de le désincarner de la dynamique capitaliste elle-même. C’est pour cela qu’il faut préciser qu’il s’agit surtout d’une expression initialement forgée pour les besoins méthodiques de son approche. Par contre, ce que j’ai essayé de souligner sans jamais le dire de cette manière, c’est que la surveillance est devenue une catégorie du capitalisme en tant qu’elle est une tentative de pallier la perte de substance du travail abstrait pour chercher de la valeur marchande dans deux directions :

  • la rationalisation à l’extrême des processus productifs qu’on voit émerger dans l’économie de plateformes, de l’esclavagisme moderne des travailleurs du clic à l’ubérisation de beaucoup de secteurs productifs de services, voire aussi industriels (on pense à Tesla). Une involution du travail qui en retour se paie sur l’actionnariat tout aussi extrême de ces mêmes plateformes dont les capacités d’investissement réel sont quasi-nulles.
  • L’autre direction est née du processus même de l’informatisation des organisations dès le début, comme je l’ai montré à propos de l’histoire d’Axciom, à savoir l’extraction et le courtage de données qui pillent littéralement nos vies privées et dissocient cette fois la force de travail elle-même du rapport social qu’elle implique puisque c’est dans nos intimités que la plus-value est recherchée. La financiarisation de ces entreprises est d’autant plus évidente que leurs besoins d’investissement sont quasiment nuls. Quant à leurs innovations (le travail des bases de données) elles sont depuis longtemps éprouvées et reposent aussi sur le modèle de plateforme mentionné ci-dessus.

Mais alors, dans cette configuration, on a plutôt l’impression qu’on ne fait que placer l’homme au centre de la production et non en dehors ou presque en dehors. Il en va ainsi des livreurs d’Uber, du travail à la tâche, des contrats de chantiers adaptés à la Recherche et à l’Enseignement, et surtout, surtout, nous sommes nous-mêmes producteurs des données dont se nourrit abondamment l’industrie numérique.

On comprend que, par exemple, certains ont cru intelligent de tenter de remettre l’homme dans le circuit de production en basant leur raisonnement sur l’idée de la propriété des données personnelles et de la « liberté d’entreprendre ». En réalité la configuration du travail à l’ère des plateformes est le degré zéro de la production de valeur : les données n’ont de valeur qu’une fois travaillées, concaténées, inférées, calculées, recoupées, stockées (dans une base), etc. En soi, même si elles sont échangeables sur un marché, il faut encore les rendre rentables et pour cela il y a de l’Intelligence Artificielle et des travailleurs du clic. Les seconds ne sont que du temps de travail volatile (il produit de la valeur en tant que travail salarié, mais si peu qu’il en devient négligeable au profit de la rationalisation structurelle), tandis que l’IA a pour objectif de démontrer la rentabilité de l’achat d’un jeu de données sur le marché (une sorte de travail mort-vivant5 qu’on incorporerait directement à la marchandisation). Et la boucle est bouclée : cette rentabilité se mesure à l’aune de la rationalisation des processus de production, ce qui génère de l’actionnariat et une tendance au renforcement des monopoles. Pour le reste, afin d’assurer les conditions de permanence du capitalisme (il faut bien des travailleurs pour assurer un minimum de salubrité de la structure, c’est-à-dire maintenir un minimum de production de valeur), deux choses :

  • on maintient en place quelques industries dont tout le jeu mondialisé consiste à être de plus en plus rationalisées pour coûter moins cher et rapporter plus, ce qui accroît les inégalités et la pauvreté (et plus on est pauvre, plus on est exploité),
  • on vend du rêve en faisant croire que le marché de produits innovants (concrets) est en soi producteur de valeur (alors que s’accroît la pauvreté) : des voitures Tesla, des services par abonnement, de l’école à distance, un métavers… du vent.

Réguler le capitalisme ne suffit pas

Pour l’individu comme pour les entreprises sous perfusion technologique, l’attrait matériel du capitalisme est tel qu’il est extrêmement difficile de s’en détacher. G. Orwell avait (comme on peut s’y attendre de la part d’un esprit si brillant) déjà remarqué cette indécrottable attraction dans Le Quai de Wigan : l’adoration de la technique et le conformisme polluent toute critique entendable du capitalisme. Tant que le capitalisme maintiendra la double illusion d’une production concrète et d’un travail émancipateur, sans remettre en cause le fait que ce sont bien les produits financiers qui représentent l’essentiel du PIB mondial6, les catégories trop anciennes avec lesquelles nous pensons le capitalisme ne nous permettront pas de franchir le pas d’une critique radicale de ses effets écocides et destructeurs de libertés.

Faudrait-il donc s’en accommoder ? La plus importante mise en perspective critique des mécanismes du capitalisme de surveillance, celle qui a placé son auteure Shoshana Zuboff au-devant de la scène ces trois dernières années, n’a jamais convaincu personne par les solutions qu’elle propose.

Premièrement parce qu’elle circonscrit le capitalisme de surveillance à la mise en œuvre par les GAFAM de solutions de rentabilité actionnariale en allant extraire le minerai de données personnelles afin d’en tirer de la valeur marchande. Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent ces firmes n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation.

Deuxièmement, les solutions proposées reposent exclusivement sur la régulation des ces monstres capitalistes. On renoue alors avec d’anciennes visions, celles d’un libéralisme garant des équilibres capitalistes, mais cette fois presque exclusivement du côté du droit : c’est mal de priver les individus de leur vie privée, donc il faut plus de régulation dans les pratiques. On n’est pas loin de renouer avec la vieille idée de l’ethos protestant à l’origine du capitalisme moderne selon Max Weber : la recherche de profit est un bien, il s’accomplit par le travail et le don de soi à l’entreprise. La paix de nos âmes ne peut donc avoir lieu sans le capitalisme. C’est ce que cristallise Milton Friedman dans une de ses célèbres affirmations : « la responsabilité sociale des entreprises est de maximiser leurs profits »7. Si le capitalisme est un dispositif géant générateur de profit, il n’est ni moral ni immoral, c’est son usage, sa destination qui l’est. Par conséquent, ce serait à l’État d’agir en assumant les conséquences d’un mauvais usage qu’en feraient les capitalistes.

Contradiction : le capitalisme n’est pas un simple dispositif, il est à la fois marché, organisation, choix collectifs, et choix individuels. Son extension dans nos vies privées est le résultat du choix de la rationalisation toujours plus drastique des conditions de rentabilité. Dans les années 1980, les économistes néoclassiques croyaient fortement au triptyque gagnant investissement – accroissement de main d’œuvre – progrès technique. Sauf que même l’un des plus connus des économistes américains, Robert Solow, a dû se rendre à une évidence, un « paradoxe » qu’il soulevait après avoir admis que « la révolution technologique [de l’informatique] s’est accompagnée partout d’un ralentissement de la croissance de la productivité, et non d’une augmentation ». Il conclut : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité »8. Pour Solow, croyant encore au vieux monde de la croissance « productrice », ce n’était qu’une question de temps, mais pour l’économie capitaliste, c’était surtout l’urgence de se tourner vers des solutions beaucoup plus rapides : l’actionnariat (et la rationalisation rentable des process) et la valorisation quasi-immédiate de tout ce qui pouvait être valorisable sur le marché le plus facile possible, celui des services, celui qui nécessite le moins d’investissements.

La volonté d’aller dans le mur

Le capitalisme à l’ère numérique n’a pas créé de stagnation, il est structurellement destructeur. Il n’a pas créé de défaut d’investissement, il est avant tout un choix réfléchi, la volonté d’aller droit dans le mur en espérant faire partie des élus qui pourront changer de voiture avant l’impact. Dans cette hyper-concurrence qui est devenue essentiellement financière, la seule manière d’envisager la victoire est de fabriquer des monopoles. C’est là que la fatuité de la régulation se remarque le plus. Un récent article de Michael Kwet9 résume très bien la situation. On peut le citer longuement :

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large […] les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud.

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques.

Dans la critique mainstream du capitalisme de surveillance, une autre erreur s’est révélée, en plus de celle qui consiste à persister dans la défense d’un imaginaire capitaliste. C’est celle de voir dans l’État et son pouvoir de régulation un défenseur de la démocratie. C’est d’abord une erreur de principe : dans un régime capitaliste monopoliste, l’État assure l’hégémonie des entreprises de son cru et fait passer sous l’expression démocratie libérale (ou libertés) ce qui favorise l’émergence de situations de domination. Pour lutter contre, il y a une urgence dans notre actualité économique : la logique des start-up tout autant que celle de la « propriété intellectuelle » doivent laisser place à l’expérimentation collective de gouvernance de biens communs de la connaissance et des techniques (nous en parlerons plus loin). Ensuite, c’est une erreur pratique comme l’illustrent les affaires de lobbying et de pantouflage dans le petit monde des décideurs politiques. Une illustration parmi des centaines : les récents Uber Files démontrant, entre autres, les accords passés entre le président Emmanuel Macron et les dirigeants d’Uber (voir sur le site Le Monde).

Situer ces enjeux dans un contexte historique aussi général suppose de longs développements, rarement simples à exposer. Oui, il s’agit d’une critique du capitalisme, et oui cette critique peut être plus ou moins radicale selon que l’on se place dans un héritage marxiste, marxien ou de la critique de la valeur, ou que l’on demeure persuadé qu’un capitalisme plus respectueux, moins « féodal » pourrait advenir. Sans doute qu’un mirage subsiste, celui de croire qu’autant de bienfaits issus du capitalisme suffisent à le dédouaner de l’usage dévoyé des technologies. « Sans le capitalisme nous en serions encore à nous éclairer à la bougie…» En d’autres termes, il y aurait un progrès indiscutable à l’aune duquel les technologies de surveillance pourraient être jugées. Vraiment ?

 

« Il y a une application pour ça », le slogan d’Apple qui illustre bien le solutionnisme technologique.

Situer le capitalisme de surveillance dans notre rapport à la technique

C’est un poncif : les technologies de surveillance ont été développées dans une logique de profit. Il s’agit des technologies dont l’objectif est de créer des données exploitables à partir de nos vies privées, à des fins de contrôle ou purement mercantiles (ce qui revient au même puisque les technologies de contrôle sont possédées par des firmes qui achètent des données).

Or, il est temps de mettre fin à l’erreur répandue qui consiste à considérer que les technologies de surveillance sont un mal qui pervertit le capitalisme censé être le moteur de la démocratie libérale. Ceci conduit à penser que seule une régulation bien menée par l’État dans le but de restaurer les vertus du « bon » capitalisme serait salutaire tant nos vies privées sont sur-exploitées et nos libertés érodées. Tel est le credo de Shoshana Zuboff et avec elle bon nombre de décideurs politiques.

Croire qu’il y a de bons et de mauvais usages

L’erreur est exactement celle que dénonçait en son temps Jacques Ellul. C’est celle qui consiste à vouloir absolument attribuer une valeur à l’usage de la technique. Le bon usage serait celui qui pousse à respecter la vie privée, et le mauvais usage celui qui tend à l’inverse. Or, il n’y a d’usage technique que technique. Il n’y a qu’un usage de la bombe atomique, celui de faire boum (ou pas si elle est mal utilisée). Le choix de développer la bombe est, lui, par contre, un choix qui fait intervenir des enjeux de pouvoir et de valeurs.

Au tout début des années 1970, à l’époque où se développaient les techniques d’exploitation des bases de données et le courtage de données, c’est ce qu’ont montré James Martin et Adrian Norman pour ce qui concerne les systèmes informatiques10 : à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde. Ceci est valable y compris pour les systèmes décisionnels. Le paradoxe que pointaient ces auteurs montrait que le traitement de l’information dans un système décisionnel – par exemple dans n’importe quelle organisation économique, comme une entreprise – devait avoir pour objectif de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, or, l’informatisation suppose un choix optimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.

Martin et Norman illustraient ce qu’avait affirmé Jacques Ellul vingt ans auparavant : la technique et sa logique de développement seraient autonomes. Bien que discutable, cette hypothèse montre au moins une chose : dans un monde capitaliste, tout l’enjeu consisterait comme au rugby à transformer l’essai, c’est-à-dire voir dans le développement des techniques autant d’opportunités de profit et non pas d’investissements productifs. Les choix se posent alors en termes d’anti-productivité concrète. Dans le monde des bases de données et leur exploitation la double question qui s’est posée de 1970 à aujourd’hui est de savoir si nous sommes capables d’engranger plus ou moins de données et comment leur attribuer une valeur marchande.

Le reste n’est que sophismes : l’usine entièrement automatisée des rêves cybernéticiens les plus fous, les boules de cristal des statistiques électorales, les données de recouvrement bancaires et le crédit à la consommation, les analyses marketing et la consommation de masse, jusqu’à la smart city de la Silicon Valley et ses voitures autonomes (et ses aspirateurs espions)… la justification de la surveillance et de l’extraction de données repose sur l’idée d’un progrès social, d’un bon usage des technologies, et d’une neutralité des choix technologiques. Et il y a un paralogisme. Si l’on ne pense l’économie qu’en termes capitalistes et libéraux, cette neutralité est un postulat qui ne peut être remis en cause qu’à l’aune d’un jugement de valeur : il y aurait des bons et des mauvais usages des technologies, et c’est à l’État d’assurer le rôle minimal de les arbitrer au regard de la loi. Nul ne remet alors en question les choix eux-mêmes, nul ne remet en question l’hégémonie des entreprises qui nous couvrent de leurs « bienfaits » au prix de quelques « négligeables » écarts de conduite, nul ne remet en question l’exploitation de nos vies privées (un mal devenu nécessaire) et l’on préfère nous demander notre consentement plus ou moins éclairé, plus ou moins obligé.

La technologie n’est pas autonome

Cependant, comme nous le verrons vers la fin de ce texte, les études en sociologie des sciences montrent en fait qu’il n’y a pas d’autonomie de la technique. Sciences, technologies et société s’abreuvent mutuellement entre les usages, les expérimentations et tous ces interstices épistémiques d’appropriation des techniques, de désapprentissage, de renouvellement, de détournements, et d’expression des besoins pour de nouvelles innovations qui seront à leur tour appropriées, modifiées, transformées, etc. En réalité l’hypothèse de l’autonomie de la technique a surtout servi au capitalisme pour suivre une course à l’innovation qui ne saurait être remise en question, comme une loi naturelle qui justifie en soi la mise sur le marché de nouvelles technologies et au besoin faire croire en leur utilité. Tel est le fond de commerce du transhumanisme et son « économie des promesses ».

L’erreur consiste à prêter le flanc au solutionnisme technologique (le même qui nous fait croire que des caméras de surveillance sont un remède à la délinquance, ou qu’il faut construire des grosses berlines sur batteries pour ne plus polluer) et à se laisser abreuver des discours néolibéraux qui, parce qu’il faut bien rentabiliser ces promesses par de la marchandisation des données – qui est elle-même une promesse pour l’actionnariat –, nous habituent petit à petit à être surveillés. Pour se dépêtrer de cela, la critique du capitalisme de surveillance doit être une critique radicale du capitalisme et du néolibéralisme car la lutte contre la surveillance ne peut être décorrélée de la prise en compte des injustices sociales et économiques dont ils sont les causes pratiques et idéologiques.

Je vois venir les lecteurs inquiets. Oui, j’ai placé ce terme de néolibéralisme sans prévenir. C’est mettre la charrue avant les bœufs mais c’est parfois nécessaire. Pour mieux comprendre, il suffit de définir ce qu’est le néolibéralisme. C’est l’idéologie appelée en Allemagne ordolibéralisme, si l’on veut, c’est-à-dire l’idée que le laissez-faire a démontré son erreur historique (les crises successives de 1929, 1972, 2008, ou la crise permanente), et que par conséquent l’État a fait son grand retour dans le marché au service du capital, comme le principal organisateur de l’espace de compétition capitaliste et le dépositaire du droit qui érige la propriété et le profit au titre de seules valeurs acceptables. Que des contrats, plus de discussion, there is no alternative, comme disait la Margaret. Donc partant de cette définition, à tous les niveaux organisationnels, celui des institutions de l’État comme celui des organisations du capital, la surveillance est à la fois outil de contrôle et de génération de profit (dans les limites démontrées par R. Kurz, à savoir : pas sans compter presque exclusivement sur l’actionnariat et les produits financiers, cf. plus haut).

Le choix du « monitoring »

La course en avant des technologies de surveillance est donc le résultat d’un choix. Il n’y a pas de bon ou de mauvais usage de la surveillance électronique : elle est faite pour récolter des données. Le choix en question c’est celui de n’avoir vu dans ces données qu’un objet marchand. Peu importe les bienfaits que cela a pu produire pour l’individu, ils ne sont visibles que sur un court terme. Par exemple les nombreuses applications de suivi social que nous utilisons nous divertissent et rendent parfois quelque service, mais comme le dit David Lyon dans The Culture of Surveillance, elle ne font que nous faire accepter passivement les règles du monitoring et du tri social que les États comme les multinationales mettent en œuvre.

Il n’y a pas de différence de nature entre la surveillance des multinationales et la surveillance par l’État : ce sont les multinationales qui déterminent les règles du jeu de la surveillance et l’État entérine ces règles et absorbe les conditions de l’exercice de la surveillance au détriment de sa souveraineté. C’est une constante bien comprise, qu’il s’agisse des aspects techniques de la surveillance sur lesquels les Big Tech exercent une hégémonie qui en retour sert les intérêts d’un ou plusieurs États (surtout les États-Unis aujourd’hui), ou qu’il s’agisse du droit que les Big Tech tendent à modifier en leur faveur soit par le jeu des lobbies soit par le jeu des accords internationaux (tout comme récemment le nouvel accord entre l’Europe et les États-Unis sur les transferts transatlantiques de données, qui vient contrecarrer les effets d’annonce de la Commission Européenne).

dessins de personnes qui brisent un mur sombre pour aller vers des colines vertes
Trouver et cultiver nos espaces de libertés.
Illustration CC-By David Revoy (sources)

Quels espaces de liberté dans ce monde technologique ?

Avec l’apparition des ordinateurs et des réseaux, de nombreuses propositions ont vu le jour. Depuis les années 1970, si l’on suit le développement des différents mouvements de contestation sociale à travers le monde, l’informatique et les réseaux ont souvent été plébiscités comme des solutions techniques aux défauts des démocraties. De nombreux exemples d’initiatives structurantes pour les réseaux informatiques et les usages des ordinateurs se sont alors vus détournés de leurs fonctions premières. On peut citer le World Wide Web tel que conçu par Tim Berners Lee, lui même suivant les traces du monde hypertextuel de Ted Nelson et son projet Xanadu. Pourquoi ce design de l’internet des services s’est-il trouvé à ce point sclérosé par la surveillance ? Pour deux raisons : 1) on n’échappe pas (jamais) au développement technique de la surveillance (les ordinateurs ont été faits et vendus pour cela et le sont toujours11) et 2) parce qu’il y a des intérêts de pouvoir en jeu, policiers et économiques, celui de contrôler les communications. Un autre exemple : le partage des programmes informatiques. Comme chacun le sait, il fut un temps où la création d’un programme et sa distribution n’étaient pas assujettis aux contraintes de la marchandisation et de la propriété intellectuelle. Cela permettait aux utilisateurs de machines de partager non seulement des programmes mais des connaissances et des nouveaux usages, faisant du code un bien commun. Sous l’impulsion de personnages comme Bill Gates, tout cela a changé au milieu des années 1970 et l’industrie du logiciel est née. Cela eut deux conséquences, négative et positive. Négative parce que les utilisateurs perdaient absolument toute maîtrise de la machine informatique, et toute possibilité d’innovation solidaire, au profit des intérêts d’entreprises qui devinrent très vite des multinationales. Positive néanmoins, car, grâce à l’initiative de quelques hackers, dont Richard Stallman, une alternative fut trouvée grâce au logiciel libre et la licence publique générale et ses variantes copyleft qui sanctuarisent le partage du code. Ce partage relève d’un paradigme qui ne concerne plus seulement le code, mais toute activité intellectuelle dont le produit peut être partagé, assurant leur liberté de partage aux utilisateurs finaux et la possibilité de créer des communs de la connaissance.

Alors que nous vivons dans un monde submergé de technologies, nous aurions en quelque sorte gagné quelques espaces de liberté d’usage technique. Mais il y a alors comme un paradoxe.

À l’instar de Jacques Ellul, pour qui l’autonomie de la technique implique une aliénation de l’homme à celle-ci, beaucoup d’auteurs se sont inquiétés du fait que les artefacts techniques configurent par eux-mêmes les actions humaines. Qu’on postule ou pas une autonomie de la technique, son caractère aliénant reste un fait. Mais il ne s’agit pas de n’importe quels artefacts. Nous ne parlons pas d’un tournevis ou d’un marteau, ou encore d’un silex taillé. Il s’agit des systèmes techniques, c’est-à-dire des dispositifs qu’on peut qualifier de socio-techniques qui font intervenir l’homme comme opérateur d’un ensemble d’actions techniques par la technique. En quelque sorte, nous perdons l’initiative et les actions envisagées tendent à la conformité avec le dispositif technique et non plus uniquement à notre volonté. Typiquement, les ordinateurs dans les entreprises à la fin des années 1960 ont été utilisés pour créer des systèmes d’information, et c’est à travers ces systèmes techniques que l’action de l’homme se voit configurée, modelée, déterminée, entre ce qui est possible et ce qui ne l’est pas. Dans son article « Do artefacts have politics ? », Langdon Winner s’en inquiétait à juste titre : nos objectifs et le sens de nos actions sont conditionnés par la technique. Cette dernière n’est jamais neutre, elle peut même provoquer une perte de sens de l’action, par exemple chez le travailleur à la chaîne ou le cadre qui non seulement peuvent être noyés dans une organisation du travail trop grande, mais aussi parce que l’automatisation de la production et de la décision les prive de toute initiative (et de responsabilité).

La tentation du luddisme

Pour lutter contre cette perte de sens, des choix sont envisageables. Le premier consiste à lutter contre la technique. En évacuant la complexité qu’il y a à penser qu’un mouvement réfractaire au développement technique puisse aboutir à une société plus libre, on peut certes imaginer des fronts luddites en certains secteurs choisis. Par exemple, tel fut le choix du CLODO dans la France des années 1980, prétendant lutter contre l’envahissement informatique dans la société. Concernant la surveillance, on peut dire qu’au terme d’un processus de plus de 50 ans, elle a gagné toutes les sphères socio-économiques grâce au développement technologique. Un front (néo-)luddite peut sembler justifié tant cette surveillance remet en cause très largement nos libertés et toutes les valeurs positives que l’on oppose généralement au capitalisme : solidarité et partage, notamment.

Pour autant, est-ce que la lutte contre le capitalisme de surveillance doit passer par la négation de la technique ? Il est assez évident que toute forme d’action directe qui s’oppose en bloc à la technique perd sa crédibilité en ce qu’elle ne fait que proposer un fantasme passéiste ou provoquer des réactions de retrait qui n’ont souvent rien de constructif. C’est une critique souvent faite à l’anarcho-primitivisme qui, lorsqu’il ne se contente pas d’opposer une critique éclairée de la technique (et des processus qui ont conduit à la création de l’État) en vient parfois à verser dans la technophobie. C’est une réaction aussi compréhensible que contrainte tant l’envahissement technologique et ses discours ont quelque chose de suffoquant. En oubliant cette question de l’autonomie de la technique, je suis personnellement tout à fait convaincu par l’analyse de J. Ellul selon laquelle nous sommes à la fois accolés et dépendants d’un système technique. En tant que système il est devenu structurellement nécessaire aux organisations (qu’elles soient anarchistes ou non) au moins pour communiquer, alors que le système capitaliste, lui, ne nous est pas nécessaire mais imposé par des jeux de pouvoirs. Une réaction plus constructive consiste donc à orienter les choix technologiques, là où l’action directe peut prendre un sens tout à fait pertinent.

Prenons un exemple qui pourrait paraître trivial mais qui s’est révélé particulièrement crucial lors des périodes de confinement que nous avons subies en raison de l’épidémie Covid. Qu’il s’agisse des entreprises ou des institutions publiques, toutes ont entamé dans l’urgence une course en avant vers les solutions de visio-conférence dans l’optique de tâcher de reproduire une forme présentielle du travail de bureau. La visio-conférence suscite un flux de données bien plus important que la voix seule, et par ailleurs la transmission vocale est un ensemble de techniques déjà fort éprouvées depuis plus d’un siècle. Que s’est-il produit ? Les multinationales se sont empressées de vendre leurs produits et pomper toujours plus de données personnelles, tandis que les limites pratiques de la visio-conférence se sont révélées : dans la plupart des cas, réaliser une réunion « filmée » n’apporte strictement rien de plus à l’efficacité d’une conférence vocale. Dans la plupart des cas, d’ailleurs, afin d’économiser de la bande passante (croit-on), la pratique courante consiste à éteindre sa caméra pendant la réunion. Où sont les gains de productivité tant annoncés par les GAFAM ? Au lieu de cela, il y a en réalité un détournement des usages, et même des actes de résistance du quotidien (surtout lorsqu’il s’agit de surveiller les salariés à distance).

Les choix technologiques doivent être collectifs

Une critique des techniques pourrait donc consister à d’abord faire le point sur nos besoins et en prenant en compte l’urgence climatique et environnementale dans laquelle nous sommes (depuis des décennies). Elle pourrait aussi consister à prendre le contrepoint des discours solutionnistes qui tendent à justifier le développement de techniques le plus souvent inutiles en pratique mais toujours plus contraignantes quant au limites éthiques vers lesquelles elles nous poussent. Les choix technologiques doivent donc d’abord être des choix collectifs, dont l’assentiment se mesure en fonction de l’économie énergétique et de l’acceptabilité éthique de la trajectoire choisie. On peut revenir à une technologie ancienne et éprouvée et s’en contenter parce qu’elle est efficace et on peut refuser une technologie parce qu’elle n’est pas un bon choix dans l’intérêt collectif. Et par collectif, j’entends l’ensemble des relations inter-humaines et des relations environnementales dont dépendent les premières.

Les attitudes de retraits par rapports aux technologies, le refus systématique des usages, sont rarement bénéfiques et ne constituent que rarement une démarche critique. Ils sont une réaction tout à fait compréhensible du fait que la politique a petit à petit déserté les lieux de production (pour ce qu’il en reste). On le constate dans le désistement progressif du syndicalisme ces 30 ou 40 dernières années et par le fait que la critique socialiste (ou « de gauche ») a été incapable d’intégrer la crise du capitalisme de la fin du XXᵉ siècle. Pire, en se transformant en un centre réactionnaire, cette gauche a créé une technocratie de la gestion aux ordres du néolibéralisme : autoritarisme et pansements sociaux pour calmer la révolte qui gronde. Dès lors, de désillusions en désillusions, dans la grande cage concurrentielle de la rareté du travail rémunéré (rentable) quelle place peut-il y avoir pour une critique des techniques et de la surveillance ? Peut-on demander sérieusement de réfléchir à son usage de Whatsapp à une infirmière qui a déjà toutes les difficultés du monde à concilier la garde de ses enfants, les heures supplémentaires (parfois non payées) à l’hôpital, le rythme harassant du cycle des gardes, les heures de transports en commun et par dessus le marché, le travail domestique censé assurer les conditions de reproduction du travail abstrait ? Alors oui, dans ces conditions où le management du travail n’est devenu qu’une affaire de rationalisation rentable, les dispositifs techniques ne font pas l’objet d’usages réfléchis ou raisonnés, il font toujours l’objet d’un usage opportuniste : je n’utilise pas Whatsapp parce que j’aime Facebook ou que je me fiche de savoir ce que deviennent mes données personnelles, j’utilise Whatsapp parce que c’est le moyen que j’ai trouvé pour converser avec mes enfants et m’assurer qu’ils sont bien rentrés à la maison après l’école.

Low tech et action directe

En revanche, un retrait que je pourrais qualifier de technophobe et donc un minimum réfléchi, laisse entier le problème pour les autres. La solidarité nous oblige à créer des espaces politiques où justement technologie et capitalisme peuvent faire l’objet d’une critique et surtout d’une mise en pratique. Le mouvement Low Tech me semble être l’un des meilleurs choix. C’est en substance la thèse que défend Uri Gordon (« L’anarchisme et les politiques techniques ») en voyant dans les possibilités de coopérations solidaires et de choix collectivement réfléchis, une forme d’éthique de l’action directe.

Je le suivrai sur ce point et en étendant davantage le spectre de l’action directe. Premièrement parce que si le techno-capitalisme aujourd’hui procède par privation de libertés et de politique, il n’implique pas forcément l’idée que nous ne soyons que des sujets soumis à ce jeu de manière inconditionnelle. C’est une tendance qu’on peut constater dans la plupart des critiques du pouvoir : ne voir l’individu que comme une entité dont la substance n’est pas discutée, simplement soumis ou non soumis, contraint ou non contraint, privé de liberté ou disposant de liberté, etc. Or il y a tout un ensemble d’espaces de résistance conscients ou non conscients chez tout individu, ce que Michel de Certeau appelait des tactiques du quotidien12. Il ne s’agit pas de stratégies où volonté et pouvoir se conjuguent, mais des mouvements « sur le fait », des alternatives multiples mises en œuvre sans chercher à organiser cet espace de résistance. Ce sont des espaces féconds, faits d’expérimentations et d’innovations, et parfois même configurent les techniques elles-mêmes dans la différence entre la conception initiale et l’usage final à grande échelle. Par exemple, les ordinateurs et leurs systèmes d’exploitations peuvent ainsi être tantôt les instruments de la surveillance et tantôt des instruments de résistance, en particulier lorsqu’ils utilisent des logiciels libres. Des apprentissages ont lieu et cette fois ils dépassent l’individu, ils sont collectifs et ils intègrent des connaissances en commun.

En d’autres termes, chaque artefact et chaque système technique est socialement digéré, ce qui en retour produit des interactions et détermine des motivations et des objectifs qui peuvent s’avérer très différents de ceux en fonction desquels les dispositifs ont été créés. Ce processus est ce que Sheila Jasanoff appelle un processus de coproduction épistémique et normatif13 : sciences et techniques influencent la société en offrant un cadre tantôt limitatif, tantôt créatif, ce qui en retour favorise des usages et des besoins qui conditionnent les trajectoires scientifiques et technologiques. Il est par conséquent primordial de situer l’action directe sur ce créneau de la coproduction en favorisant les expériences tactiques individuelles et collectives qui permettent de déterminer des choix stratégiques dans l’orientation technologique de la société. Dit en des mots plus simples : si la décision politique n’est plus suffisante pour garantir un cadre normatif qui reflète les choix collectifs, alors ce sont les collectifs qui doivent pouvoir créer des stratégies et au besoin les imposer par un rapport de force.

Créer des espaces d’expérimentations utopiques

Les hackers ne produisent pas des logiciels libres par pur amour d’autrui et par pure solidarité : même si ces intentions peuvent être présentes (et je ne connais pas de libristes qui ne soient pas animés de tels sentiments), la production de logiciel libre (ou open source) est d’abord faite pour créer de la valeur. On crée du logiciel libre parce que collectivement on est capable d’administrer et valoriser le bien commun qu’est le code libre, à commencer par tout un appareillage juridique comme les licences libres. Il en va de même pour toutes les productions libres qui emportent avec elles un idéal technologique : l’émancipation, l’activité libre que représente le travail du code libre (qui n’est la propriété de personne). Même si cela n’exempte pas de se placer dans un rapport entre patron (propriétaire des moyens de production) et salarié, car il y a des entreprises spécialisées dans le Libre, il reste que le Libre crée des espaces d’équilibres économiques qui se situent en dehors de l’impasse capitaliste. La rentabilité et l’utilité se situent presque exclusivement sur un plan social, ce qui explique l’aspect très bigarré des modèles d’organisations économiques du Libre, entre associations, fondations, coopératives…

L’effet collatéral du Libre est aussi de créer toujours davantage d’espaces de libertés numériques, cette fois en dehors du capitalisme de surveillance et ses pratiques d’extraction. Cela va des pratiques de chiffrement des correspondances à l’utilisation de logiciels dédiés explicitement aux luttes démocratiques à travers le monde. Cela a le mérite de créer des communautés plus ou moins fédérées ou archipélisées, qui mettent en pratique ou du moins sous expérimentation l’alliance entre les technologies de communication et l’action directe, au service de l’émancipation sociale.

Il ne s’agit pas de promettre un grand soir et ce n’est certes pas avec des expériences qui se complaisent dans la marginalité que l’on peut bouleverser le capitalisme. Il ne s’agit plus de proposer des alternatives (qui fait un détour lorsqu’on peut se contenter du droit chemin?) mais des raisons d’agir. Le capitalisme est désuet. Dans ses soubresauts (qui pourraient bien nous mener à la guerre et la ruine), on ressort l’argument du bon sens, on cherche le consentement de tous malgré l’expérience que chacun fait de l’exploitation et de la domination. Au besoin, les capitalistes se montrent autoritaires et frappent. Mais que montrent les expériences d’émancipation sociales ? Que nous pouvons créer un ordre fait de partage et d’altruisme, de participation et de coopération, et que cela est parfaitement viable, sans eux, sur d’autres modèles plus cohérents14. En d’autres termes, lutter contre la domination capitaliste, c’est d’abord démontrer par les actes que d’autres solutions existent et sans chercher à les inclure au forceps dans ce système dominant. Au contraire, il y a une forme d’héroïsme à ne pas chercher à tordre le droit si ce dernier ne permet pas une émancipation franche et durable du capitalisme. Si le droit ne convient pas, il faut prendre le gauche.

La lutte pour les libertés numériques et l’application des principes du Libre permettent de proposer une sortie positive du capitalisme destructeur. Néanmoins on n’échappera pas à la dure réalité des faits. Par exemple que l’essentiel des « tuyaux » des transmissions numériques (comme les câbles sous-marins) appartiennent aux multinationales du numérique et assurent ainsi l’un des plus écrasants rapports de domination de l’histoire. Pourtant, on peut imaginer des expériences utopiques, comme celle du Chaos Computer Club, en 2012, consistant à créer un Internet hors censure via un réseau de satellite amateur.

L’important est de créer des espaces d’expérimentation utopiques, parce qu’ils démontrent tôt ou tard la possibilité d’une solution, il sont préfiguratifs15. Devant la décision politique au service du capital, la lutte pour un réseau d’échanges libres ne pourra certes pas se passer d’un rapport de force mais encore moins de nouveaux imaginaires. Car, finalement, ce que crée la crise du capitalisme, c’est la conscience de son écocide, de son injustice, de son esclavagisme technologique. Reste l’espoir, première motivation de l’action.

Notes


  1. R. Kurz, Vies et mort du capitalisme, Nouvelles Éditions Ligne, 2011, p. 37↩︎
  2. Ernst Lohoff et Norbert Trenkle, La grande dévalorisation. Pourquoi la spéculation et la dette de l’État ne sont pas les causes de la crise, Paris, Post-éditions, 2014.↩︎
  3. Georges Simpson, « Western Man under Automation », International Journal of Comparative Sociology, num. 5, 1964, pp. 199-207.↩︎
  4. Comme le dit Moishe Postone dans son article « Repenser Le Capital à la lumière des Grundrisse » : « La transformation radicale du processus de production mentionnée plus haut n’est pas le résultat quasi-automatique du développement rapide des savoirs techniques et scientifique et de leurs applications. C’est plutôt une possibilité qui naît d’une contradiction sociale intrinsèque croissante. Bien que la course du développement capitaliste génère la possibilité d’une structure nouvelle et émancipatrice du travail social, sa réalisation générale est impossible dans le capitalisme. »↩︎
  5. Là je reprends une catégorie marxiste. Marx appelle le (résultat du -) travail mort ce qui a besoin de travail productif. Par exemple, une matière comme le blé récolté est le résultat d’un travail déjà passé, il lui faut un travail vivant (celui du meunier) pour devenir matière productive. Pour ce qui concerne l’extraction de données, il faut comprendre que l’automatisation de cette extraction, le stockage, le travail de la donnée et la marchandisation sont un seul et même mouvement (on ne marchande pas des jeux de données « en l’air », ils correspondent à des commandes sur une marché tendu). Les données ne sont pas vraiment une matière première, elles ne sont pas non plus un investissement, mais une forme insaisissable du travail à la fois matière première et système technique.↩︎
  6. On peut distinguer entre économie réelle et économie financière. Voir cette étude de François Morin, juste avant le crack de 2008. François Morin, « Le nouveau mur de l’argent », Nouvelles Fondations, num. 3-4, 2007, p. 30-35.↩︎
  7. The New York Times Magazine, 13 septembre 1970.↩︎
  8. Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36.↩︎
  9. Mike Kwet, « Digital Ecosocialism Breaking the power of Big Tech » (ROAR Magazine), trad. Fr. Louis Derrac, sous le titre « Écosocialisme numérique – Briser le pouvoir des Big Tech », parue sur Framablog.org.↩︎
  10. James Martin et Adrian R. D. Norman, The Computerized Society. An Appraisal of the Impact of Computers on Society over the next 15 Years, Englewood Cliffs, Prentice-Hall, 1970, p. 522.↩︎
  11. c’est ce que je tâche de montrer dans une partie de mon livre Affaires privées. Aux sources du capitalisme de surveillance : pourquoi fabriquer et acheter des ordinateurs ? Si les entreprises sont passées à l’informatique c’est pour améliorer la production et c’est aussi pourquoi le courtage de données s’est développé.↩︎
  12. Sur les « tactiques numériques », on pourra lire avec profit l’article de Beatrice Latini et Jules Rostand, « La libre navigation. Michel de Certeau à l’épreuve du numérique », Esprit, 2022/1-2 (Janvier-Février), p. 109-117.↩︎
  13. Sheila Jasanoff, « Ordering Knowledge, Ordering Society », dans S. Jasanoff (éd.), States of knowledge. The co-production of science and social order, Londres, Routledge, 2004, pp. 13-45.↩︎
  14. Sur ce point on peut lire avec intérêt ce texte de Ralph Miliband, « Comment lutter contre l’hégémonie capitaliste ? », paru initialement en 1990 et traduit sur le site Contretemps.↩︎
  15. Voir David Graeber, et Alexie Doucet, Comme si nous étions déjà libres, Montréal, Lux éditeur, 2014. La préfiguration est l’« idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Voir aussi Marianne Maeckelbergh, « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, vol. 10, num. 1, 2011, pp. 1‑20.↩︎



Écosocialisme numérique : une alternative aux big tech ?

Je vous propose la traduction, d’abord publiée sur mon blog avec l’aimable autorisation de son auteur Michael Kwet, d’un essai sur lequel je suis récemment tombé. Je pense qu’il mérite toute notre attention, car il pose non seulement un constat politique détaillé et sourcé sur le capitalisme numérique, mais il lui oppose aussi une véritable alternative.

D’accord ou pas d’accord, le fait d’avoir ce genre d’alternative est salutaire. Car si la politique, c’est la capacité à faire des choix, alors nous avons besoin d’avoir plusieurs alternatives entre lesquelles choisir. Autrement nous ne choisissons rien, puisque nous suivons l’unique chemin qui est devant nous. Et nous avançons, peut-être jusqu’au précipice…

L’article initial ainsi que cette traduction sont sous licence Creative Commons, ne vous privez donc pas de les partager si comme moi, vous trouvez cet essai extrêmement stimulant et précieux pour nos réflexions. Dans le même esprit, les commentaires sont à vous si vous souhaitez réagir ou partager d’autres réflexions.

— Louis Derrac


Écosocialisme numérique – Briser le pouvoir des Big Tech

Nous ne pouvons plus ignorer le rôle des Big Tech dans l’enracinement des inégalités mondiales. Pour freiner les forces du capitalisme numérique, nous avons besoin d’un Accord sur les Technologies Numériques 1 écosocialiste

En l’espace de quelques années, le débat sur la façon d’encadrer les Big Tech a pris une place prépondérante et fait l’objet de discussions dans tout le spectre politique. Pourtant, jusqu’à présent, les propositions de réglementation ne tiennent pas compte des dimensions capitalistes, impérialistes et environnementales du pouvoir numérique, qui, ensemble, creusent les inégalités mondiales et poussent la planète vers l’effondrement. Nous devons de toute urgence construire un écosystème numérique écosocialiste, mais à quoi cela ressemblerait-il et comment pouvons-nous y parvenir ?

Cet essai vise à mettre en évidence certains des éléments fondamentaux d’un programme socialiste numérique – un Accord sur les Technologies Numériques (ATN) – centré sur les principes de l’anti-impérialisme, de l’abolition des classes, des réparations et de la décroissance qui peuvent nous faire passer à une économie socialiste du 21e siècle. Il s’appuie sur des propositions de transformation ainsi que sur des modèles existants qui peuvent être mis à l’échelle, et cherche à les intégrer à d’autres mouvements qui prônent des alternatives au capitalisme, en particulier le mouvement de la décroissance. L’ampleur de la transformation nécessaire est énorme, mais nous espérons que cette tentative d’esquisser un Accord sur les Technologies Numériques socialiste suscitera d’autres réflexions et débats sur l’aspect que pourrait prendre un écosystème numérique égalitaire et les mesures à prendre pour y parvenir.

Le capitalisme numérique et les problèmes d’antitrust

Les critiques progressistes du secteur technologique sont souvent tirées d’un cadre capitaliste classique centré sur l’antitrust, les droits de l’homme et le bien-être des travailleur⋅se⋅s. Formulées par une élite d’universitaires, de journalistes, de groupes de réflexion et de décideurs politiques du Nord, elles mettent en avant un programme réformiste américano-eurocentré qui suppose la poursuite du capitalisme, de l’impérialisme occidental et de la croissance économique.

Le réformisme antitrust est particulièrement problématique car il part du principe que le problème de l’économie numérique est simplement la taille et les “pratiques déloyales” des grandes entreprises plutôt que le capitalisme numérique lui-même. Les lois antitrust ont été créées aux États-Unis pour promouvoir la concurrence et limiter les pratiques abusives des monopoles (alors appelés “trusts”) à la fin du XIXe siècle. Compte tenu de l’ampleur et de la puissance des Big Tech contemporaines, ces lois sont de nouveau à l’ordre du jour, leurs défenseurs soulignant que les grandes entreprises sapent non seulement les consommateurs, les travailleur⋅se⋅s et les petites entreprises, mais remettent également en question les fondements de la démocratie elle-même.

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large, comme je l’ai soutenu dans un article précédent, publié sur ROAR, les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud 2

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques. Le Royaume-Uni vise à produire son propre mastodonte de plusieurs milliards de dollars. Le président Emmanuel Macron va injecter 5 milliards d’euros dans des start-ups technologiques dans l’espoir que la France compte au moins 25 “licornes” – des entreprises évaluées à un milliard de dollars ou plus – d’ici 2025. L’Allemagne dépense 3 milliards d’euros pour devenir une puissance mondiale de l’IA et un leader mondial (c’est-à-dire un colonisateur de marché) de l’industrialisation numérique. Pour leur part, les Pays-Bas visent à devenir une “nation de licornes”. Et en 2021, la commissaire à la concurrence de l’Union européenne, Margrethe Vestager, largement applaudie, a déclaré que l’Europe devait bâtir ses propres géants technologiques européens. Dans le cadre des objectifs numériques de l’UE pour 2030, Mme Vestager a déclaré que l’UE visait à “doubler le nombre de licornes européennes, qui est aujourd’hui de 122.”

Au lieu de s’opposer par principe aux grandes entreprises de la tech, les décideurs européens sont des opportunistes qui cherchent à élargir leur propre part du gâteau.

D’autres mesures capitalistes réformistes proposées, telles que l’imposition progressive, le développement des nouvelles technologies en tant que service public3 et la protection des travailleur⋅se⋅s, ne parviennent toujours pas à s’attaquer aux causes profondes et aux problèmes fondamentaux. Le capitalisme numérique progressiste est meilleur que le néolibéralisme. Mais il est d’orientation nationaliste, ne peut empêcher le colonialisme numérique, et conserve un engagement envers la propriété privée, le profit, l’accumulation et la croissance.

L’urgence environnementale et la technologie

Les crises jumelles du changement climatique et de la destruction écologique qui mettent en péril la vie sur Terre constituent d’autres points faibles majeurs pour les réformateurs du numérique.

De plus en plus d’études montrent que les crises environnementales ne peuvent être résolues dans un cadre capitaliste fondé sur la croissance, qui non seulement augmente la consommation d’énergie et les émissions de carbone qui en résultent, mais exerce également une pression énorme sur les systèmes écologiques.

Le PNUE4 estime que les émissions doivent diminuer de 7,6 % chaque année entre 2020 et 2030 pour atteindre l’objectif de maintenir l’augmentation de la température à moins de 1,5 degré. Des évaluations universitaires estiment la limite mondiale d’extraction de matières durables à environ 50 milliards de tonnes de ressources par an, mais à l’heure actuelle, nous en extrayons 100 milliards de tonnes par an, ce qui profite largement aux riches et aux pays du Nord.

La décroissance doit être mise en œuvre dans un avenir immédiat. Les légères réformes du capitalisme vantées par les progressistes continueront à détruire l’environnement. En appliquant le principe de précaution, nous ne pouvons pas nous permettre de risquer une catastrophe écologique permanente. Le secteur des technologies n’est pas un simple spectateur, mais l’un des principaux moteurs de ces tendances.

Selon un rapport récent, en 2019, les technologies numériques – définies comme les réseaux de télécommunications, les centres de données, les terminaux (appareils personnels) et les capteurs IoT (internet des objets) – ont contribué à 4 % des émissions de gaz à effet de serre, et leur consommation d’énergie a augmenté de 9 % par an.

Et aussi élevé que cela puisse paraître, cela sous-estime probablement l’utilisation de l’énergie par le secteur numérique. Un rapport de 2022 a révélé que les géants de la grande technologie ne s’engagent pas à réduire l’ensemble des émissions de leur chaîne de valeur. Des entreprises comme Apple prétendent être “neutres en carbone” d’ici 2030, mais cela “ne comprend actuellement que les opérations directes, qui représentent un microscopique 1,5 % de son empreinte carbone.”

En plus de surchauffer la planète, l’extraction des minéraux utilisés dans l’électronique – tels que le cobalt, le nickel et le lithium – dans des endroits comme la République démocratique du Congo, le Chili, l’Argentine et la Chine est souvent destructive sur le plan écologique.

Et puis il y a le rôle central des entreprises numériques dans le soutien d’autres formes d’extraction non durable. Les géants de la technologie aident les entreprises à explorer et à exploiter de nouvelles sources de combustibles fossiles et à numériser l’agriculture industrielle. Le modèle économique du capitalisme numérique tourne autour de la diffusion de publicités visant à promouvoir la consommation de masse, un facteur clé de la crise environnementale. Dans le même temps, nombre de ses dirigeants milliardaires ont une empreinte carbone des milliers de fois supérieure à celle des consommateurs moyens des pays du Nord.

Les réformateurs du numérique partent du principe que les grandes entreprises technologiques peuvent être découplées des émissions de carbone et de la surconsommation de ressources et, par conséquent, ils concentrent leur attention sur les activités et les émissions particulières de chaque entreprise. Pourtant, la notion de “découplage” de la croissance de l’utilisation des ressources matérielles a été remise en question par les universitaires, qui notent que l’utilisation des ressources suit de près la croissance du PIB à travers l’histoire. Des chercheurs ont récemment constaté que le transfert de l’activité économique vers les services, y compris les industries à forte intensité de connaissances, n’a qu’un potentiel limité de réduction des impacts environnementaux mondiaux en raison de l’augmentation des niveaux de consommation des ménages par les travailleur⋅se⋅s des services.

En résumé, les limites de la croissance changent tout. Si le capitalisme n’est pas écologiquement soutenable, les politiques numériques doivent tenir compte de cette réalité brutale et difficile.

Le socialisme numérique et ses composantes

Dans un système socialiste, la propriété est détenue en commun. Les moyens de production sont directement contrôlés par les travailleur⋅se⋅s eux-mêmes par le biais de coopératives de travailleur⋅se⋅s, et la production est destinée à l’utilisation et aux besoins plutôt qu’à l’échange, au profit et à l’accumulation. Le rôle de l’État est contesté parmi les socialistes, certains soutenant que la gouvernance et la production économique devraient être aussi décentralisées que possible, tandis que d’autres plaident pour un plus grand degré de planification de l’État.

Ces mêmes principes, stratégies et tactiques s’appliquent à l’économie numérique. Un système de socialisme numérique éliminerait progressivement la propriété intellectuelle, socialiserait les moyens de calcul, démocratiserait les données et l’intelligence numérique et confierait le développement et la maintenance de l’écosystème numérique à des communautés du domaine public.

Bon nombre des éléments constitutifs d’une économie numérique socialiste existent déjà. Les logiciels libres et open source (FOSS5) et les licences Creative Commons, par exemple, fournissent les logiciels et les licences nécessaires à un mode de production socialiste. Comme le note James Muldoon dans Platform Socialism, des projets urbains comme DECODE (DEcentralised Citizen-owned Data Ecosystems) fournissent des outils d’intérêt public open source pour des activités communautaires où les citoyens peuvent accéder et contribuer aux données, des niveaux de pollution de l’air aux pétitions en ligne et aux réseaux sociaux de quartier, tout en gardant le contrôle sur les données partagées. Les coopératives de plates-formes, telles que la plate-forme de livraison de nourriture Wings à Londres6, fournissent un modèle de milieu de travail remarquable dans lequel les travailleur⋅se⋅s organisent leur travail par le biais de plates-formes open source détenues et contrôlées collectivement par les travailleur⋅se⋅s eux-mêmes. Il existe également une alternative socialiste aux médias sociaux dans le Fédivers7, un ensemble de réseaux sociaux qui interagissent en utilisant des protocoles partagés, qui facilitent la décentralisation des communications sociales en ligne.

Mais ces éléments de base auraient besoin d’un changement de politique pour se développer. Des projets comme le Fédivers, par exemple, ne sont pas en mesure de s’intégrer à des systèmes fermés ou de rivaliser avec les ressources massives et concentrées d’entreprises comme Facebook. Un ensemble de changements politiques radicaux serait donc nécessaire pour obliger les grands réseaux de médias sociaux à s’interopérer, à se décentraliser en interne, à ouvrir leur propriété intellectuelle (par exemple, les logiciels propriétaires), à mettre fin à la publicité forcée (publicité à laquelle les gens sont soumis en échange de services “gratuits”), à subventionner l’hébergement des données afin que les individus et les communautés – et non l’État ou les entreprises privées – puissent posséder et contrôler les réseaux et assurer la modération du contenu. Cela aurait pour effet d’étouffer les géants de la technologie.

La socialisation de l’infrastructure devrait également être équilibrée par de solides garanties pour la vie privée, des restrictions sur la surveillance de l’État et le recul de l’État sécuritaire carcéral. Actuellement, l’État exploite la technologie numérique à des fins coercitives, souvent en partenariat avec le secteur privé. Les populations immigrées et les personnes en déplacement sont fortement ciblées par un ensemble de caméras, d’avions, de capteurs de mouvements, de drones, de vidéosurveillance et d’éléments biométriques. Les enregistrements et les données des capteurs sont de plus en plus centralisés par l’État dans des centres de recoupement [des données] et des centres de criminalité en temps réel pour surveiller, prévoir et contrôler les communautés. Les communautés marginalisées et racisées ainsi que les militant⋅e⋅s sont ciblés de manière disproportionnée par l’État de surveillance high-tech. Ces pratiques doivent être interdites alors que les militant⋅e⋅s s’efforcent de démanteler et d’abolir ces institutions de violence organisée.

L’accord sur les Technologies Numériques

Les grandes entreprises technologiques, la propriété intellectuelle et la propriété privée des moyens de calcul sont profondément ancrées dans la société numérique et ne peuvent être éteintes du jour au lendemain. Ainsi, pour remplacer le capitalisme numérique par un modèle socialiste, nous avons besoin d’une transition planifiée vers le socialisme numérique.

Les écologistes ont proposé de nouveaux “accords” décrivant la transition vers une économie verte. Les propositions réformistes comme le Green New Deal américain et le Green Deal européen fonctionnent dans un cadre capitaliste qui conserve les méfaits du capitalisme, comme la croissance terminale, l’impérialisme et les inégalités structurelles. En revanche, les modèles écosocialistes, tels que le Red Deal de la Nation Rouge, l’Accord de Cochabamba et la Charte de justice climatique d’Afrique du Sud, offrent de meilleures alternatives. Ces propositions reconnaissent les limites de la croissance et intègrent les principes égalitaires nécessaires à une transition juste vers une économie véritablement durable.

Cependant, ni ces accords rouges ni ces accords verts n’intègrent de plans pour l’écosystème numérique, malgré sa pertinence centrale pour l’économie moderne et la durabilité environnementale. À son tour, le mouvement pour la justice numérique a presque entièrement ignoré les propositions de décroissance et la nécessité d’intégrer leur évaluation de l’économie numérique dans un cadre écosocialiste. La justice environnementale et la justice numérique vont de pair, et les deux mouvements doivent s’associer pour atteindre leurs objectifs.

À cet effet, je propose un Accord sur les Technologies Numériques écosocialiste qui incarne les valeurs croisées de l’anti-impérialisme, de la durabilité environnementale, de la justice sociale pour les communautés marginalisées, de l’autonomisation des travailleur⋅se⋅s, du contrôle démocratique et de l’abolition des classes. Voici dix principes pour guider un tel programme :

1. Veiller à ce que l’économie numérique ne dépasse pas les limites sociales et planétaires

Nous sommes confrontés à une réalité : les pays les plus riches du Nord ont déjà émis plus que leur juste part du budget carbone – et cela est également vrai pour l’économie numérique dirigée par les Big Tech qui profite de manière disproportionnée aux pays les plus riches. Il est donc impératif de veiller à ce que l’économie numérique ne dépasse pas les limites sociales et planétaires. Nous devrions établir une limite scientifiquement informée sur la quantité et les types de matériaux qui peuvent être utilisés et des décisions pourraient être prises sur les ressources matérielles (par exemple, la biomasse, les minéraux, les vecteurs d’énergie fossile, les minerais métalliques) qui devraient être consacrées à tel ou tel usage (par exemple, de nouveaux bâtiments, des routes, de l’électronique, etc.) en telle ou telle quantité pour telle ou telle personne. On pourrait établir des dettes écologiques qui imposent des politiques de redistribution du Nord au Sud, des riches aux pauvres.

2. Supprimer progressivement la propriété intellectuelle

La propriété intellectuelle, notamment sous la forme de droits d’auteur et de brevets, donne aux entreprises le contrôle des connaissances, de la culture et du code qui détermine le fonctionnement des applications et des services, ce qui leur permet de maximiser l’engagement des utilisateurs, de privatiser l’innovation et d’extraire des données et des rentes. L’économiste Dean Baker estime que les rentes de propriété intellectuelle coûtent aux consommateurs 1 000 milliards de dollars supplémentaires par an par rapport à ce qui pourrait être obtenu sur un “marché libre” sans brevets ni monopoles de droits d’auteur. L’élimination progressive de la propriété intellectuelle au profit d’un modèle de partage des connaissances basé sur les biens communs permettrait de réduire les prix, d’élargir l’accès à l’éducation et de l’améliorer pour tous, et fonctionnerait comme une forme de redistribution des richesses et de réparation pour le Sud.

3. Socialiser l’infrastructure physique

Les infrastructures physiques telles que les fermes de serveurs cloud, les tours de téléphonie mobile, les réseaux de fibres optiques et les câbles sous-marins transocéaniques profitent à ceux qui les possèdent. Il existe des initiatives de fournisseurs d’accès à internet gérés par les communautés et des réseaux maillés sans fil qui peuvent aider à placer ces services entre les mains des communautés. Certaines infrastructures, comme les câbles sous-marins, pourraient être entretenues par un consortium international qui les construirait et les entretiendrait au prix coûtant pour le bien public plutôt que pour le profit.

4. Remplacer les investissements privés de production par des subventions et une production publiques.

La coopérative numérique britannique de Dan Hind est peut-être la proposition la plus détaillée sur la façon dont un modèle socialiste de production pourrait fonctionner dans le contexte actuel. Selon ce programme, “les institutions du secteur public, y compris le gouvernement local, régional et national, fourniront des lieux où les citoyens et les groupes plus ou moins cohésifs peuvent se rassembler et sécuriser une revendication politique.” Améliorée par des données ouvertes, des algorithmes transparents, des logiciels et des plateformes à code source ouvert et mise en œuvre par une planification participative démocratique, une telle transformation faciliterait l’investissement, le développement et la maintenance de l’écosystème numérique et de l’économie au sens large.

Si Hind envisage de déployer ce système sous la forme d’un service public dans un seul pays – en concurrence avec le secteur privé -, il pourrait à la place constituer une base préliminaire pour la socialisation complète de la technologie. En outre, il pourrait être élargi pour inclure un cadre de justice globale qui fournit des infrastructures en guise de réparations au Sud, de la même manière que les initiatives de justice climatique font pression sur les pays riches pour qu’ils aident le Sud à remplacer les combustibles fossiles par des énergies vertes.

5. Décentraliser Internet

Les socialistes prônent depuis longtemps la décentralisation de la richesse, du pouvoir et de la gouvernance entre les mains des travailleur⋅se⋅s et des communautés. Des projets comme FreedomBox8 proposent des logiciels libres et gratuits pour alimenter des serveurs personnels peu coûteux qui peuvent collectivement héberger et acheminer des données pour des services comme le courrier électronique, les calendriers, les applications de chat, les réseaux sociaux, etc. D’autres projets comme Solid permettent aux gens d’héberger leurs données dans des “pods” qu’ils contrôlent. Les fournisseurs d’applications, les réseaux de médias sociaux et d’autres services peuvent alors accéder aux données à des conditions acceptables pour les utilisateurs, qui conservent le contrôle de leurs données. Ces modèles pourraient être étendus pour aider à décentraliser l’internet sur une base socialiste.

6. Socialiser les plateformes

Les plateformes Internet comme Uber, Amazon et Facebook centralisent la propriété et le contrôle en tant qu’intermédiaires privés qui s’interposent entre les utilisateurs de leurs plateformes. Des projets comme le Fédivers et LibreSocial fournissent un modèle d’interopérabilité qui pourrait potentiellement s’étendre au-delà des réseaux sociaux. Les services qui ne peuvent pas simplement s’interopérer pourraient être socialisés et exploités au prix coûtant pour le bien public plutôt que pour le profit et la croissance.

7. Socialiser l’intelligence numérique et les données

Les données et l’intelligence numérique qui en découle sont une source majeure de richesse et de pouvoir économique. La socialisation des données permettrait au contraire d’intégrer des valeurs et des pratiques de respect de la vie privée, de sécurité, de transparence et de prise de décision démocratique dans la manière dont les données sont collectées, stockées et utilisées. Elle pourrait s’appuyer sur des modèles tels que le projet DECODE à Barcelone et à Amsterdam.

8. Interdire la publicité forcée et le consumérisme des plateformes

La publicité numérique diffuse un flux constant de propagande d’entreprise conçue pour manipuler le public et stimuler la consommation. De nombreux services “gratuits” sont alimentés par des publicités, ce qui stimule encore plus le consumérisme au moment même où il met la planète en danger. Des plateformes comme Google Search et Amazon sont construites pour maximiser la consommation, en ignorant les limites écologiques. Au lieu de la publicité forcée, les informations sur les produits et services pourraient être hébergées dans des répertoires, auxquels on accèderait de manière volontaire.

9. Remplacer l’armée, la police, les prisons et les appareils de sécurité nationale par des services de sûreté et de sécurité gérés par les communautés.

La technologie numérique a augmenté le pouvoir de la police, de l’armée, des prisons et des agences de renseignement. Certaines technologies, comme les armes autonomes, devraient être interdites, car elles n’ont aucune utilité pratique au-delà de la violence. D’autres technologies basées sur l’IA, dont on peut soutenir qu’elles ont des applications socialement bénéfiques, devraient être étroitement réglementées, en adoptant une approche conservatrice pour limiter leur présence dans la société. Les militant⋅e⋅s qui font pression pour réduire la surveillance de masse de l’État devraient se joindre à ceux qui militent pour l’abolition de la police, des prisons, de la sécurité nationale et du militarisme, en plus des personnes visées par ces institutions.

10. Mettre fin à la fracture numérique

La fracture numérique fait généralement référence à l’inégalité d’accès individuel aux ressources numériques telles que les appareils et les données informatiques, mais elle devrait également englober la manière dont les infrastructures numériques, telles que les fermes de serveurs cloud et les installations de recherche de haute technologie, sont détenues et dominées par les pays riches et leurs entreprises. En tant que forme de redistribution des richesses, le capital pourrait être redistribué par le biais de la fiscalité et d’un processus de réparation afin de subventionner les appareils personnels et la connectivité Internet pour les pauvres du monde entier et de fournir des infrastructures, telles que l’infrastructure cloud et les installations de recherche de haute technologie, aux populations qui ne peuvent pas se les offrir.

Comment faire du socialisme numérique une réalité

Des changements radicaux sont nécessaires, mais il y a un grand écart entre ce qui doit être fait et où nous sommes aujourd’hui. Néanmoins, nous pouvons et devons prendre certaines mesures essentielles.

Tout d’abord, il est essentiel de sensibiliser, de promouvoir l’éducation et d’échanger des idées au sein des communautés et entre elles afin qu’ensemble nous puissions co-créer un nouveau cadre pour l’économie numérique. Pour ce faire, une critique claire du capitalisme et du colonialisme numériques est nécessaire.

Un tel changement sera difficile à mettre en place si la production concentrée de connaissances reste intacte. Les universités d’élite, les sociétés de médias, les groupes de réflexion, les ONG et les chercheurs des grandes entreprises technologiques du Nord dominent la conversation et fixent l’ordre du jour de la correction du capitalisme, limitant et restreignant les paramètres de cette conversation. Nous devons prendre des mesures pour leur ôter leur pouvoir, par exemple en abolissant le système de classement des universités, en démocratisant la salle de classe et en mettant fin au financement des entreprises, des philanthropes et des grandes fondations. Les initiatives visant à décoloniser l’éducation – comme le récent mouvement de protestation étudiant #FeesMustFall en Afrique du Sud et la Endowment Justice Coalition à l’université de Yale – sont des exemples des mouvements qui seront nécessaires9.

Deuxièmement, nous devons connecter les mouvements de justice numérique avec d’autres mouvements de justice sociale, raciale et environnementale. Les militant⋅e⋅s des droits numériques devraient travailler avec les écologistes, les abolitionnistes, les défenseurs de la justice alimentaire, les féministes et autres. Une partie de ce travail est déjà en cours – par exemple, la campagne #NoTechForIce menée par Mijente, un réseau de base dirigé par des migrants, remet en question l’utilisation de la technologie pour contrôler l’immigration aux États-Unis – mais il reste encore beaucoup à faire, notamment en ce qui concerne l’environnement.

Troisièmement, nous devons intensifier l’action directe et l’agitation contre les Big Tech et l’empire américain. Il est parfois difficile de mobiliser un soutien derrière des sujets apparemment ésotériques, comme l’ouverture d’un centre de cloud computing dans le Sud (par exemple en Malaisie) ou l’imposition de logiciels des Big Tech dans les écoles (par exemple en Afrique du Sud). Cela est particulièrement difficile dans le Sud, où les gens doivent donner la priorité à l’accès à la nourriture, à l’eau, au logement, à l’électricité, aux soins de santé et aux emplois. Cependant, la résistance réussie à des développements tels que Free Basics de Facebook en Inde et la construction du siège d’Amazon sur des terres indigènes sacrées au Cap, en Afrique du Sud, montrent la possibilité et le potentiel de l’opposition civique.

Ces énergies militantes pourraient aller plus loin et adopter les tactiques de boycott, désinvestissement et sanctions (BDS), que les militant⋅e⋅s anti-apartheid ont utilisées pour cibler les sociétés informatiques vendant des équipements au gouvernement d’apartheid en Afrique du Sud. Les militant⋅e⋅s pourraient créer un mouvement #BigTechBDS, qui ciblerait cette fois l’existence des grandes entreprises technologiques. Les boycotts pourraient annuler les contrats du secteur public avec les géants de la technologie et les remplacer par des solutions socialistes de technologies du peuple10. Des campagnes de désinvestissement pourraient forcer des institutions comme les universités à se désinvestir des pires entreprises technologiques. Et les militant⋅e⋅s pourraient faire pression sur les États pour qu’ils appliquent des sanctions ciblées aux entreprises technologiques américaines, chinoises et d’autres pays.

Quatrièmement, nous devons œuvrer à la création de coopératives de travailleur⋅se⋅s de la tech11 qui peuvent être les éléments constitutifs d’une nouvelle économie socialiste numérique. Il existe un mouvement de syndicalisation des grandes entreprises technologiques, qui peut contribuer à protéger les travailleur⋅se⋅s de la technologie en cours de route. Mais syndiquer les entreprises des Big Tech revient à syndiquer les compagnies des Indes orientales, le fabricant d’armes Raytheon, Goldman Sachs ou Shell – ce n’est pas de la justice sociale et cela n’apportera probablement que de légères réformes. De même que les militant⋅e⋅s sud-africain⋅e⋅s de la lutte contre l’apartheid ont rejeté les principes de Sullivan – un ensemble de règles et de réformes en matière de responsabilité sociale des entreprises qui permettaient aux entreprises américaines de continuer à faire des bénéfices dans l’Afrique du Sud de l’apartheid – et d’autres réformes légères, en faveur de l’étranglement du système de l’apartheid, nous devrions avoir pour objectif d’abolir complètement les Big Tech et le système du capitalisme numérique. Et cela nécessitera de construire des alternatives, de s’engager avec les travailleur⋅se⋅s de la tech, non pas pour réformer l’irréformable, mais pour aider à élaborer une transition juste pour l’industrie.

Enfin, les personnes de tous horizons devraient travailler en collaboration avec les professionnels de la technologie pour élaborer le plan concret qui constituerait un Accord des Technologies Numériques. Ce projet doit être pris aussi au sérieux que les “accords” verts actuels pour l’environnement. Avec un Accord des Technologies Numériques, certains travailleur⋅se⋅s – comme ceux du secteur de la publicité – perdraient leur emploi, il faudrait donc prévoir une transition équitable pour les travailleur⋅se⋅s de ces secteurs. Les travailleur⋅se⋅s, les scientifiques, les ingénieur⋅e⋅s, les sociologues, les avocat⋅e⋅s, les éducateur⋅ice⋅s, les militant⋅e⋅s et le grand public pourraient réfléchir ensemble à la manière de rendre cette transition pratique.

Aujourd’hui, le capitalisme progressiste est largement considéré comme la solution la plus pratique à la montée en puissance des Big Tech. Pourtant, ces mêmes progressistes n’ont pas su reconnaître les méfaits structurels du capitalisme, la colonisation technologique menée par les États-Unis et l’impératif de décroissance. Nous ne pouvons pas brûler les murs de notre maison pour nous garder au chaud. La seule solution pratique est de faire ce qui est nécessaire pour nous empêcher de détruire notre seule et unique maison – et cela doit intégrer l’économie numérique. Le socialisme numérique, concrétisé par un Accord des Technologies Numériques, offre le meilleur espoir dans le court laps de temps dont nous disposons pour un changement radical, mais il devra être discuté, débattu et construit. J’espère que cet article pourra inviter les lecteur⋅ice⋅s et d’autres personnes à collaborer dans cette direction.

Sur l’auteur

Michael Kwet a obtenu son doctorat en sociologie à l’université de Rhodes et il est membre invité du projet de société de l’information à la Yale Law School. Il est l’auteur de Digital colonialism : US empire and the new imperialism in the Global South, hôte du podcast Tech Empire, et a été publié par VICE News, The Intercept, The New York Times, Al Jazeera et Counterpunch.

Retrouvez Micheal sur Twitter : @Michael_Kwet.

Sur la traduction

Ce texte a été d’abord traduit avec Deepl, et ensuite revu, corrigé et commenté par moi-même. N’étant pas un traducteur professionnel, j’accueillerai avec plaisir les propositions d’amélioration.

Illustration à la une par Zoran Svilar

 




De la pub ? Où ça ?

Nous, les geeks, nous bloquons les pubs et nous n’y pensons plus.

Le choc est d’autant plus grand quand nous devons utiliser l’ordinateur de quelqu’un d’autre.

« Mais comment faites-vous pour supporter une telle nuisance ? » avons-nous envie de hurler.
Eh bien, c’est simple : quand on ne sait pas s’en protéger, on vit avec le vacarme.
Et la majorité des gens que nous côtoyons doivent subir cet incessant bruit de fond publicitaire.

Cet article a pour ambition de recenser les méthodes pour s’éviter l’agression publicitaire sur Internet.
Partagez-le, commentez-le, augmentez-le ! C’est libre.

 

Sur mobile

Un bon conseil au passage : arrêtez d’appeler «téléphone» le parallélépipède que vous promenez partout et qui est plus puissant qu’un PC d’il y a cinq ans. Vous vous rendrez compte que la plupart du temps il vous sert à plein d’autres choses qu’à téléphoner. C’est un ordinateur à part entière, qui sait à tout moment où vous êtes et ce que vous faites. C’est un bon copain très serviable mais c’est aussi un super espion.

L’appeler «ordiphone» ou «smartphone» si vous aimez les anglicismes, c’est déjà prendre conscience de ses capacités.

Sur Android

Fuyez les applications

Utilisez le navigateur et pas les applications (Fennec sur F-droid ou Firefox sur le Play Store/Apple Store).

Pourquoi ?

Le navigateur peut filtrer correctement les cookies, recevoir des réglages de confidentialité plus fins, embarquer des extensions protectrices.

Les applications, elles, sont là pour capter un maximum de données et vous garder en ligne autant que possible. Même si elles ont des réglages de confidentialité, vous ne serez jamais en mesure de vérifier que ces réglages fonctionnent, puisque le code des applications est fermé.

Le navigateur Firefox (ou Fennec, donc) est un logiciel libre dont le code peut être validé par des experts.

Privilégiez les versions web mobiles lorsque c’est possible, et épinglez le site : ça ressemble à une appli mais ça prend moins de place !

Extensions et réglages

  • Installer uBlock Origin dans votre navigateur, c’est le service minimum pour être un peu tranquille.
  • Choisir «standard» voire « stricte » comme «Protection renforcée» dans les paramètres du navigateur.

Si vous voulez des applis quand même (après tout, c’est ça aussi, la liberté)

Renseignez-vous sur leur propension à vous espionner grâce aux travaux de l’excellente association française Exodus Privacy dont on ne dira jamais assez de bien.

 

Installez un autre magasin d’application pour y trouver des apps moins invasives.

Allez chercher l’apk de F-droid, le «magasin d’applications» soutenu par la Free Software Foundation (https://f-droid.org/fr/) et dites à votre Android qu’il peut lui faire confiance.

Attention, toutefois : certaines applis ne sont pas mûres, n’installez pas n’importe quoi.

 

Youtube sans pub

  • NewPipe sur F-droid

 Twitter sans Twitter

  • Fritter

Twitch sans Twitch

  • Twire

Reddit sans…

  • RedReader

 

Et pensez aux réseaux sociaux alternatifs comme Mastodon.

S’éviter les appels de télémarketing

L’application Yet Another Call Blocker consulte une liste noire collaborative à chaque appel avant de le laisser passer. C’est un casse-pied qui veut vous parler de votre CPF ? Votre téléphone ne sonne même pas, l’indésirable est détecté et viré sans vous déranger. S’il ne l’est pas vous le signalez et tout le monde est désormais protégé.

Copie d'écran de la page de présentation de l'application <em>Yen Another Call Blocker</em>

 

Filtrer le trafic Internet

Utilisez des DNS publics qui incluent un filtrage, ou des solutions locales.

C’est quoi un DNS ?

Les «serveurs de noms de domaine» transforment un domaine (une adresse à peu près intelligible pour nous comme framasoft.org) en adresse utilisable par une machine sur Internet («2a01:4f8:141:3421::212»). Partie mise à jour grâce au commentaire de Stéphane Bortzmeyer.

 

Pourquoi ça marche ?

Si vous donnez une fausse adresse à la machine, la pub n’arrive plus ! Un peu comme si vous mettiez une fausse boite aux lettres reliée directement à votre poubelle à la disposition des personnes qui distribuent des prospectus dans votre quartier.

Vous libérez même de la bande passante sur votre réseau et du temps de calcul à l’affichage des sites puisque votre appareil ne télécharge même pas les contenus publicitaires, qui pèsent généralement lourd dans une page web (images, vidéo).

  • dns.adguard.com
  • adblock.doh.mullvad.net
  • Blocklists locales via intégration VPN
  • Blokada (à la portée de tout le monde !)
  • TrackerControl (sur F-droid, assez didactique)
  • personalDNSFilter

Copie d’écran du réglage «DNS privé» sur Android. Un nom d »hôte personnalisé est saisi (ici dns.adguard.com).

 

Gérer les permissions aux applications

Les Android récents permettent par exemple d’autoriser une permission ponctuellement.

 

Si vous avez encore un compte Google

Réglez-le pour limiter la surveillance. Le mieux, c’est encore de ne pas en avoir.

On a l’impression que c’est obligatoire quand on configure un nouvel ordiphone (tout est fait pour vous donner cette impression, c’est ce qu’on appelle une interface déloyale, en anglais dark pattern), mais on peut passer cette étape ! Il suffit de cliquer sur «ignorer».

Configurer le compte Google pour désactiver le ciblage publicitaire : https://web.archive.org/web/20210224202916/https://sautenuage.com/de-vie-privee-sur-android-sans-rien-installer/

Dégoogliser son ordiphone

Vous pouvez parfaitement utiliser un Android sans la surcouche propriétaire de Google ou du fabricant, en installant par exemple Lineage OS ou /e/ OS de Murena.

Attention, «flasher» son engin est une opération délicate, vous risquez de le «briquer», c’est-à-dire de le transformer en presse-papier un peu cher.

Ne le faites pas si vous n’êtes pas à l’aise.

 

Cerise sur le gâteau : débarrassé de la surcouche Google, votre ordiphone sera plus véloce, moins poussif, et tiendra mieux la batterie ! Une bonne façon de faire durer le matériel (le mien va fêter ses huit ans !).

 

Autre solution pour un matériel qui dure : l’acheter en reconditionné sur https://murena.com/fr/

Il aura été configuré par des pros. Murena s’engage sur la protection de votre vie privée.

 

Sur iOS

Apple se targue de protéger vos données. Mais il y a au moins une entreprise qui y accède : Apple !

Et puis la firme a beau… frimer (on ne s’interdit pas les jeux de mots faciles, chez Framasoft), elle est quand même soumises aux lois liberticides américaines.

 

Gérer qui a accès aux permissions spécifiques

  • Consulter la section « Confidentialité de l’app » des fiches AppStore

 

Sur un ordinateur

Utiliser un navigateur bienveillant, la base : Firefox et rien d’autre

Avec Firefox, dans les Préférences, aller à l’onglet « vie privée et sécurité » : plusieurs trucs sont à régler pour se garantir un peu de tranquillité.

accès en trois clics aux paramètres de Firefox (capture d'écran) Édition > Paramètres > Vie privée et sécurité

Firefox : paramètres contre le pistage
Firefox prévoit trois réglages de protection de la vie privée : standard, stricte, ou personnalisée. La protection standard est suffisante pour la plupart des usages, mais vous pouvez pousser la vôtre en mode « strict ». Ne vous ennuyez pas avec le réglage personnalisé si vous n’y comprenez rien.

 

Vous pouvez paramétrer Firefox pour qu’il envoie un signal « ne pas me pister » (Do Not Track en anglais, vous le verrez abrégé en DNT parfois) et pour supprimer les cookies à intervalle régulier, sachant que vous pouvez instaurer des exceptions sur les sites auxquels vous faites confiance.

 

Firefox vous demande votre accord pour collecter des données anonymisées sur votre usage du logiciel. Vous pouvez refuser. En revanche sur la partie Sécurité, cochez tout.

 

 

copie d'écran des paramètres de chiffrement de Firefox
Le protocole HTTPS permet de chiffrer les relations entre le navigateur et le serveur, ce qui signifie qu’une personne qui intercepte le flux ne peut pas le lire (c’est le fameux petit cadenas dont vous entendez souvent parler). Mais ce n’est pas parce que la liaison est chiffrée que le site est un site de confiance. En gros ça garantit que l’enveloppe est fermée, pas que l’enveloppe ne contient pas des saloperies.

 

Les extensions que vous pouvez installer :

  • uBlock Origin
  • Privacy Badger
  • SponsorBlock
  • Privacy Redirect
  • Cookie Autodelete
  • Umatrix
  • Decentraleyes

Ne le faites pas sans comprendre ! Lisez la documentation.

 

Youtube sans pub

  • Invidious
  • Piped (plus récent, efficace)
  • FreeTube

Twitter sans Twitter

  • Nitter

 

DNS de filtrage, fichier hosts customisé

Comment ça marche ?

Les publicités ne sont généralement pas hébergées sur le serveur du site que vous consultez. Elles sont sur un autre site et téléchargées à la volée. En filtrant via le DNS, on dit à l’ordi d’aller chercher les pubs dans un «trou noir informatique». Le fichier «hosts» de votre système peut lister des adresses de sites et les rediriger vers un espace inexistant de votre ordinateur. En gros on truque l’annuaire ; votre navigateur ne trouve pas les publicités, il ne les affiche pas. Simple et efficace. Ce qui est drôle, c’est que le concepteur du site ne sait pas que vous naviguez sans voir ses pubs. 🙂

 

pi-hole

À installer sur  un nano-ordinateur RaspberryPi dont l’un des spécialistes est français, cocorico, ou un ordinateur recyclé,  pi-hole bloque la publicité et les pisteurs sur tout le réseau. Tout ce qui se connecte à votre box est débarrassé de la publicité et des mouchards !

 

Attention toutefois, en faisant ça vous contrevenez pour votre PC à un des principes d’Internet : la neutralité des tuyaux. Vous ne verrez plus rien en provenance du site tiers dont le trafic est bloqué. En général, ce sont des régies publicitaires, donc on peut choisir de s’en moquer, mais il faut le savoir.

Au pire vous verrez un espace blanc marqué « publicité », au mieux la page se réorganisera et seul le contenu issu du site d’origine apparaîtra.

Mode Expert : changez de système d’exploitation

Une méthode radicale (mais qui n’exclut pas la plupart des autres mentionnées ci-dessus) : passez à un système libre, qui ne trichera pas avec vous pour vous imposer des pubs sous prétexte de vous tenir au courant de l’actualité (oui, Windows, on te voit !).

Les différentes distributions GNU/Linux qui existent sont désormais faciles à installer et à utiliser.

La plupart des geeks installent désormais une Ubuntu ou une Linux Mint sur les ordinateurs familiaux au lieu de réparer le Windows qui plante sans cesse et qui s’encrasse avec le temps. Le changement n’est pas si difficile pour les «clients», qui souvent n’utilisent leur ordinateur que pour aller sur Internet gérer leur courrier et leurs réseaux sociaux (et croyez-nous c’est l’expérience qui parle !). Vérifiez quand même que Papy ou Tantine n’a pas une appli fétiche qui ne tourne que sous Windows et installez un double-démarrage par sécurité.

Au pire si quelqu’un fait une bêtise ça se dépanne à distance dans la majorité des cas (avec par exemple le logiciel AnyDesk qui n’est pas libre mais dont le fonctionnement est compréhensible par le moins dégourdi des cousins).

Mise à jour : on nous signale dans les commentaires une alternative libre et légère à AnyDesk : DWAgent via https://dwservice.net

Si vous ne comprenez pas certains mots du paragraphe ci-dessus, ne vous lancez pas, ou faites-vous aider par une personne compétente.

Difficile de vous conseiller une «distro» plutôt qu’une autre sans déclencher une guerre de chapelles dans les commentaires (on recherche ici la simplicité et l’accessibilité), mais pour détailler les deux citées plus haut :

  • Ubuntu est de plus en plus gangrenée par des choix discutables, mais elle dispose d’une solide base documentaire en français, est stable et conçue pour plaire au plus grand nombre. Debian, sur laquelle Ubuntu est basée, est plus stricte dans ses choix, pas forcément adaptée aux personnes qui débutent.
  • Linux Mint est jolie et fonctionne bien.

Si vous le faites pour «libérer» une relation, installez-lui une distribution que vous connaissez bien, pour pouvoir la guider en cas de besoin.

 

Oui mais la pub

Vous tomberez parfois sur des encarts qui vous culpabiliseront : «notre site ne vit que de la publicité, c’est le prix à payer si vous voulez avoir du contenu de qualité, nos enfants ont faim à cause de vous, vous mettez en danger nos emplois», etc.

Alors, deux-trois trucs à ce sujet :

  • La dérive (c’en est une) devient proprement insupportable, par exemple dans Youtube. Créateurs, créatrices de contenus, si la pub vous fait vivre, travaillez avec des gens sérieux qui proposent des contenus en lien avec votre site et qui n’espionnent pas les internautes. Bref, c’est pas nous qu’on a commencé, nous ne faisons que nous défendre.
  • D’autres modèles économiques existent, mais les pratiques des sites depuis des années ont instauré un fonctionnement «apparemment gratuit» des contenus avec des pubs insidieuses et imposées. Un média qui vit de la publicité peut-il sortir un scoop à charge contre son principal annonceur ? Figurez-vous qu’avant Internet les gens achetaient le journal (incroyable), voire avaient des abonnements. Maintenant qu’on se rebiffe ça couine. Fallait peut-être y penser avant ?
  • Du contenu de qualité, vraiment ? Vous voulez qu’on en parle, mesdames et messieurs les pros du putaclic ? Ce qu’on voit de plus en plus, ce sont des internautes qui doivent choisir entre accepter les cookies ou renoncer à un site, et qui finalement se disent que le contenu ne leur est pas si indispensable que ça.

 

Copie d'écran d'un article annonçant le décès de la chienne de Paul Pogba. Le fait qu'il s'agit de son Yorkshire n'est révélé qu'en toute fin du texte qui joue sur l'ambiguïté en parlant de "princesse".
Source : https://news.ohmymag.com Avouez que ça vous a démangé de cliquer !

 

 

Pour aller plus loin

  • SebSauvage est un gars bien

Seb est un passionné qui compile depuis des années des astuces sur son site. Abonnez-vous ! (y’a pas de pub)

https://sebsauvage.net/wiki/doku.php?id=dns-blocklist

https://sebsauvage.net/wiki/doku.php?id=dnsfilter

  • Le site Bloque la Pub porte bien son nom.

https://bloquelapub.net/

  • Articles précédents sur la publicité dans le Framablog

Ne plus supporter la pub sur le Web

Non, je ne veux pas télécharger votre &@µ$# d’application !

Résistons à la pub sur Internet #bloquelapubnet




Elon Musk et Twitter VS Mastodon et le Fédiverse

Le potentiel rachat de Twitter par Elon Musk inquiète les membres de ce réseau, qui cherchent des alternatives et se créent en masse des comptes sur Mastodon, dans le fédiverse. Vous n’avez rien compris à tous ces mots ? Tout va bien, on vous explique tout ça dans cet article et en vidéo !

Cette nouvelle qui agite le monde des affaires de la Silicon Valley illustre une certitude qui nous habite depuis des années : derrière le choix des outils numériques, il y a un choix de société.

Twitter, le choix du capitalisme de surveillance

Que ce rachat de Twitter par le milliardaire conservateur se finalise ou non, au final peu importe : le danger a toujours été là.

Elon Musk joue avec un lance flamme
Elon Musk jouant avec nos attentions (allégorie).

C’est le trop grand pouvoir des géants du web. C’est le danger de l’accumulation des informations et des attentions de centaines de millions d’êtres humains. Lorsqu’on centralise tout le monde sur une plateforme, lorsqu’un outil numérique peut accéder à votre cerveau, alors les personnes qui s’achètent un accès à ces outils s’achètent un accès à nos cerveaux.

Cumulez des accès précis à suffisamment de cerveaux et vous pouvez manipuler une société vers vos intérêts.

C’est ce que Steve Bannon a fait lorsqu’il a utilisé Cambridge Analytica et son site d’information/fake news BreitBart News pour viraliser l’extrême droite et polariser les USA (voir l’excellent dossier de Hacking Social sur Cambridge Analytica, dont l’article consacré au travail de manipulation culturelle réalisé par Steve Bannon et financé par des milliardaires).

conférence de presse de marine le pen et steve bannon
Cliquez sur l’image pour lire le dossier de Hacking Social sur Cambridge Analytica
(Photo © Sylvain Lefevre/Getty Images)

Car Twitter, comme Facebook mais aussi comme Framapad, n’est pas neutre. Aucun outil n’est neutre, mais c’est encore plus vrai pour les logiciels, qui sont des outils complexes. Le code fait loi, car il permet de déterminer quelles actions seront possibles ou pas, donc d’influencer l’expérience que vous vivrez en utilisant cet outil.

L’architecture d’un logiciel, c’est (par exemple) faire le choix de fonctionner avec une unique plateforme centralisatrice ou de multiples instances fédérées. Ces choix d’architecture déterminent la politique du logiciel, l’organisation sociale qu’il induit, donc le choix de société qui est porté par l’outil numérique sur lequel vous passez les précieuses minutes de votre vie.

Mastodon, le choix de la fédération des libertés

Si vous désirez tester une alternative indépendante, résiliente et conviviale à Twitter, nous vous recommandons de faire des « pouets » sur un drôle d’éléphant : Mastodon.

Mastodon, ce n’est pas une plateforme qui cumule tous les gens, toute l’attention et donc tout le pouvoir (coucou Twitter 😘) : c’est une fédération de fournisseuses qui se connectent ensemble (un peu comme l’email).

dessin illustrant Mastodon
Sur mastodon, on ne tweete pas, on pouette (ou « toot » en anglais)

Ces fournisseuses hébergent une installation du logiciel Mastodon sur leur serveur : si vous vous y créez un compte, vos données se retrouveront sur ce serveur, chez cet hébergeuse. Vous pouvez imaginer que c’est une propriétaire qui vous loue une chambre, ou un stand à la foire : est-ce que vous voulez être chez la méga propriétaire de la foire immensissime et déshumanisée (Twitter) ou chez la petite propriétaire de la petite foire qui s’est connectée avec les foires des villages voisins ? (Mastodon)

Votre mission, c’est de trouver où vous créer un compte. Vous avez donc le choix entre plusieurs fournisseuses de Mastodon, qui ont chacune des motivations, des moyens, des conditions d’utilisations différentes.

  • L’avantage, c’est que Elon Musk ne peut pas toutes les acheter.
  • L’inconvénient, c’est de trouver celle qui vous plaît.

C’est important de dire que votre compte Mastodon ne sera pas hébergé par une méga entreprise déshumanisée qui vous considérerait comme une vache-à-données. Les personnes qui fournissent du Mastodon le font par passion, sur leur temps à elles, et c’est du boulot !

sepia, mascotte de peertube, entretenant son jardin
Faire la modération, c’est au moins autant de travail que de désherber un jardin.
Illustration de David Revoy (CC-By)

Beaucoup de fournisseuses auront des règles (modération, fake news, pornographie…) liées à leurs motivations : vous avez donc tout intérêt à vous demander si leur politique de modération et de publication correspond à vos valeurs. Car liberté ne veut pas dire fête du slip de l’inconséquence : si vous êtes libres d’utiliser Mastodon comme vous voulez (sur votre serveur à vous), les personnes qui vous offrent un compte sur leur hébergement Mastodon n’ont pas pour devoir de vous offrir une plateforme… D’autant plus si elles estiment que vous ne vous arrêtez pas là où commence la liberté des autres.

En fait, on ne s’inscrit pas chez une telle fournisseuse comme on rentre dans un hypermarché, car vous n’êtes ni une cliente ni un produit.

Par ailleurs, il est souvent demandé (ou de bon ton) de se présenter lorsqu’on demande à rentrer sur une instance, ou lorsqu’on vient d’y être acceptée. Ainsi, n’hésitez pas à ce que votre premier pouet inclue le hashtag #introduction pour vous présenter à la communauté.

Faire ses premiers pas chez un hébergeur de confiance

Pour vous aider, on va vous faire une sélection juste après, parmi les amies des CHATONS. Car ce collectif d’hébergeuses alternatives s’engage à appliquer des valeurs de manière concrète (pas de pistage ni de GAFAM, neutralité, transparence) qui inspirent la confiance.

Mais avant de vous créer un compte, souvenez-vous que c’est toujours compliqué de tester un nouveau réseau social : il faut se présenter, se faire de nouvelles amies, comprendre les codes… 🤯 Vous vous doutez bien que Twitter veut garder les gens chez lui, et n’offrira aucune compatibilité, ni moyen de retrouver des personnes. Bref, il faut prendre Mastodon comme un nouveau média social, où on recommence à construire sa communauté de zéro.

Des animaux sur deux planetes voisines se disent bonjour
Se dire bonjour, c’est un bon début quand on veut communiquer 😉 Illustration CC-By SA LILA

Soyez choues avec vous : donnez-vous le temps, et n’hésitez pas à garder Twitter en parallèle, au moins au début. Il existe même des outils qui permettent de prendre vos pouets sur Mastodon et de les copier sur votre compte Twitter, histoire que ce soit pas trop dur de maintenir vos deux comptes pendant votre transition.

Bonne nouvelle : si vous ne choisissez pas la bonne fournisseuse du premier coup, c’est pas si grave : on peut migrer son compte d’une fournisseuse à l’autre. Peu importe chez qui vous vous inscrivez, vous pourrez communiquer avec tout cet univers fédéré (« federated universe » = fédiverse : on vous explique ça plus bas en vidéo !)

Des animaux sur plusieurs planetes forment un univers fédéré, avec l'inscription "Fediverse" au milieu
Ne loupez pas la vidéo à la fin de cet article, réalisée par LILA (CC-By SA)

Créer votre compte Mastodon chez une des CHATONS

À Framasoft, nous hébergeons Framapiaf, notre installation de Mastodon. Mais il y a déjà beaucoup trop de monde d’inscrit dessus : nous n’y acceptons plus de nouveaux comptes. Grossir indéfiniment pourrait créer des déséquilibres dans la fédération et surcharger les épaules de notre petite équipe de modération !

Parce que le but, c’est de garder des « instances » Mastodon (c’est le nom qu’on donne au serveur d’une fournisseuse de Mastodon), à taille humaine, dont l’équipe, les choix, les motivations, etc. vous inspirent confiance. Et qu’à cela ne tienne, il en existe beaucoup !

Voici donc notre sélection, mais qui n’est pas exhaustive : il y en a plein d’autres des super bien, et vous pouvez en trouver la plupart sur le site joinmastodon.org.

join th federation - Mastodon

Vous pouvez aller chez Zaclys, une association franc-comtoise qui, pour professionnaliser ses services, est devenue une SARL, mais avec la même équipe et la même éthique.

Underworld, en revanche, c’est une personne sur Paris qui héberge des services avec amour, pour le plaisir et le savoir, et qui vous aide si vous lui payez l’apéro 🍻

Immaeu, c’est une petite entreprise d’une personne, qui ne cherche pas à faire de profit sur ses services (mais qui accepte les tips ou fait payer les grosses demandes spécifiques).

G3L est une association en Drôme-Ardèche qui promeut les logiciels libres. Elle vit principalement des dons et cotisations de ses membres.

FACIL est une association québecoise qui œuvre à l’appropriation collective de l’informatique libre. Leur instance Mastodon a le plus beau nom au monde : « Jasette ».

Si vous voulez qu’on vous installe votre propre instance Mastodon en quelques clics (moyennant quelques sous), Ethibox est la micro entreprise là pour vous !

Enfin, Chapril, c’est le chaton de l’APRIL, l’association de défense et de promotion du logiciel libre. Elle vit grâce aux cotisations et dons de ses membres : rejoignez-là !

C’est quoi, le Fediverse ? [vidéo]

Les pouets de Mastodon, les vidéos de PeerTube, les événements et groupes de Mobilizon, etc., toutes ces informations se retrouvent dans le « Fédiverse ».

Mais c’est quoi, le fédiverse ? Pour vous répondre, nous avons travaillé avec l’association LILA afin de produire une courte vidéo en anglais (déjà sous-titrée en français : aidez nous à la traduire depuis l’anglais dans d’autres langues sur notre plateforme de traduction).

Nous profitons donc de cet article pour vous dévoiler cette vidéo, que vous pouvez partager massivement autour de vous !


Vidéo What is the Fediverse – CC-By SA LILA



Fermer ses comptes… et respirer !

L’équipe de traduction des bénévoles de Framalang vous propose aujourd’hui le bref témoignage de Silvia, une designeuse indépendante12, qui avait atteint comme beaucoup un degré d’addiction élevé aux réseaux sociaux. Comme d’autres aussi, elle a renoncé progressivement à ces réseaux, et fait le bilan après six mois du nouvel état d’esprit dont elle a bénéficié, une sorte de sentiment de soulagement, celui d’avoir retrouvé un peu de liberté…
Bien sûr chacun a une trajectoire différente et la démarche peut n’être pas aussi facile, mais pourquoi ne pas tenter ?

Article original sur le blog de l’autrice : Life off social media, six months in
Traduction Framalang : Bromind, Diane, Florence, goofy, Marius, ngfchristian, Penguin

Six mois hors réseaux sociaux, six mois dans ma vie

par Silvia Maggi

J’étais vraiment partout. Citez-moi un réseau social, et sans doute, j’y avais un compte… Internet a toujours été important pour moi, et un certain degré de présence en ligne était bon pour mon travail, mes hobbies et mes relations sociales.

Mes préférés étaient Twitter, Flickr et LinkedIn. J’ai été une utilisatrice plutôt précoce. Puis sont arrivés Facebook et Instagram, qui sont ensuite devenus les principales raisons pour lesquelles j’ai fermé la plupart de mes comptes. Dès l’origine, j’ai eu une relation d’amour-haine avec Facebook. La première fois que je m’y suis connectée, j’ai détesté l’interface, les couleurs, et j’avais du mal à voir l’intérêt. D’ailleurs, j’ai aussitôt fermé le compte que je venais d’ouvrir, et je n’y suis revenue que plus tard, poussée par des amis qui me disaient « on y est tous et c’est marrant ».

Avec Instagram, le ressentiment est monté progressivement. Mon amour pour la photographie aurait pu être satisfait par l’application mais c’était également une période où les filtres étaient utilisés à outrance – à l’époque, l’autre application en vogue pour la prise de photos était Hipstamatic – et je préférais de toute façon prendre des clichés plutôt avec un appareil photo.

À mesure que la popularité d’Instagram augmentait, associée à la qualité du contenu, je suis devenue accro. Je n’ai jamais effacé mon compte Flickr, mais je ne visitais que rarement la plateforme : à un moment, on a eu l’impression que tout le monde avait migré vers l’application aux photos carrées. Cependant, quand Facebook a acheté Instagram pour 1 milliard de dollars en 2012, son avenir est devenu malheureusement évident. Avance rapide jusqu’à janvier 2021 : j’ai désactivé ce que je considérais à une époque comme mon précieux compte Instagram, et j’ai également fermé mon compte WhatsApp. Avant cela, j’avais fermé mes comptes Twitter, Facebook et Pinterest. Six mois plus tard, je peux dire comment les choses se sont passées.

Le bruit de fond s’est tu

Au début, c’était une sensation étrange : quelque chose manquait. Dans ma vie, je m’étais habituée à un certain niveau de bruit, au point de ne plus m’en rendre compte. Une fois qu’il a disparu, cela est devenu si évident que je m’en suis sentie soulagée. J’ai désormais moins d’opportunités de distractions et ainsi, il m’est devenu progressivement, plus facile de rester concentrée plus longtemps. En conséquence, cela a considérablement amélioré ma productivité et désormais, je suis à même de commencer et terminer la lecture de livres.

Le monde a continué de tourner

Je ne prête plus l’oreille aux mèmes, scandales ni à tout ce qui devient viral ou tendance sur les réseaux sociaux. Au lieu d’avoir peur de rater quelque chose, j’y suis indifférente. Le temps que je passais à suivre ce qui arrivait en ligne, je le passe ailleurs. Et le mieux dans tout ça, c’est que je ne me sens pas obligée de donner mon avis. J’ai des opinions précises sur les choses qui me tiennent à cœur, mais je doute que le monde entier ait besoin de les connaître.

En ce moment historique, tout peut être source de division, et les réseaux sociaux sont un endroit où la plupart des gens choisissent un camp. C’est un triste spectacle à voir car les arguments clivants sont amplifiés mais jamais réellement apaisés.

Ma santé mentale s’est améliorée

Il y a quelques années, je pensais qu’avoir du succès sur Instagram pourrait devenir mon boulot d’appoint. C’est arrivé à beaucoup de gens, alors pourquoi pas moi ? J’avais acheté un cours en ligne, proposé par un influenceur célèbre, pour comprendre comment rendre mon compte Instagram digne d’intérêt, et faire monter mes photos tout en haut grâce à l’algorithme.

À partir de ce moment, je me suis retrouvée enfermée dans une boucle. Je sortais et prenais avec frénésie plein de photos, les publiais puis je vérifiais les statistiques pour voir comment elles évoluaient. J’ai eu de bons moments, rencontré des personnes géniales, mais ce n’était jamais assez. En tant que photographe, je n’en faisais jamais assez. Les statistiques sont devenues un problème : j’en étais obsédée. Je les vérifiais tout le temps, me demandant ce que je faisais mal. Quand tout cela est devenu trop, je suis passée à un compte personnel, espérant résoudre mon problème en cliquant sur un simple bouton. Ça ne s’est pas passé ainsi : les chiffres n’étaient pas le vrai problème.

À chaque fois que j’éprouvais comme une démangeaison de photographier, et que je ne pouvais pas prendre de photos, je me sentais coupable parce que je n’avais rien à poster. Ma passion pour la photographie est passée d’une activité qui ne m’a jamais déçue, à une source d’anxiété et de sentiment d’infériorité. Depuis que j’ai désactivé mon compte Instagram, je prends des photos quand j’en ai envie. Je les poste sur Flickr, ou bien je les garde pour moi. Ça ne compte plus vraiment, tant que c’est un exutoire créatif.

écrit au néon rose sur fond de feuillage 'and breathe' (en français : et respirez)- Photo de Max van den Oetelaar.
Photo de Max van den Oetelaar, licence Unsplash

 

Finie l’immédiateté

Chaque fois que j’avais quelque chose à dire ou à montrer, je postais presque immédiatement sur un réseau social. C’était la chose normale à faire. Même si cela a diminué pendant les dernières années, je vois cela comme une attitude étrange de ma part. C’est peut-être une réflexion due au fait que je me connais un peu mieux désormais, mais il m’a toujours fallu du temps pour assimiler des concepts et me forger des opinions. C’est pour cela que je préfère écrire sur mon blog et que j’ai réduit récemment ma fréquence de publication : je donne davantage de détails sur mes apprentissages et mes réalisations récentes.

Conclusion

Quitter les réseaux sociaux a été une bonne décision pour moi. Je suis plus concentrée, moins anxieuse et j’ai à présent plus de temps libre. Cela, en plus des divers confinements, m’a permis de mieux me concentrer et réfléchir davantage à ce qui compte vraiment. Prendre cette décision ne conviendrait certainement pas à tout le monde, mais il est important de réaliser à quel point les réseaux sociaux influencent nos vies, et à quel point ils peuvent changer nos habitudes ainsi que notre manière de penser. Et ainsi, prendre des décisions à notre place.

Pour aller plus loin
Des articles en anglais

Des très nombreux témoignages en français qui mettent souvent l’accent sur la difficulté à se « sevrer »…

Mise à jour

22 Novembre 2021. Il y a deux mois, je me suis connectée à Instagram et n’ai rien ressenti. J’ai vu une vidéo d’un ami, mais je n’ai nullement éprouvé le besoin de regarder plus loin.
Il n’y avait aucun intérêt à maintenir ce compte en mode inactif, alors j’ai demandé sa suppression.
Maintenant c’est fini.

 




Publicité ciblée en ligne : rien ne changera tant que…

AdContrarian (en français, à peu près « Poil à gratter de la pub ») est le titre du blog de Bob Hoffman et ce choix  dit assez combien ce journaliste notoire aux U.S.A s’évertue à « mettre mal à l’aise les marketeux » qu’il connaît bien et ne se lasse pas de les fustiger sans prendre de gants…

Dans sa newsletter de février que les bénévoles de Framalang ont traduit pour vous, il fait preuve d’un certain pessimisme par rapport au RGPD et à sa transposition dans les réglements étatsuniens, tant les acteurs de la publicité ciblée, Google et autres, ont peu de difficultés à contourner les lois ou à payer, même si le ciblage publicitaire est déclaré illégal…

Source : Special Edition : It’s all illegal

Traduction Framalang : Aliénor, Claire, goofy, Guestr, jums, Susy

On tient un scoop : tout est illégal !

par Bob Hoffman

L’intégralité de la publicité en ligne en Europe repose sur un pistage illégal.

Tel a été le verdict, en février dernier, du bras armé chargé du respect du RGPD (Règlement Général sur la Protection des Données).
Mardi 2 février 2022, les autorités chargées de la protection des données de l’Union européenne ont statué sur l’illégalité des « fenêtres popup qui sollicitent le consentement », ces affreuses notifications qui vous demandent dans un charabia incompréhensible d’accepter des cookies à chaque fois que vous arrivez sur un site web. Déroulons toute l’histoire depuis le début.

Il y a presque cinq ans, l’Union européenne a voté pour l’application du RGPD dont l’objectif était de protéger la vie privée des citoyens contre les abus de l’industrie de la collecte de données en ligne. Ce RGPD fixe certaines normes pour la collecte et l’utilisation des données, y compris pour les activités des agences publicitaires en ligne.

Pour se conformer au RGPD, les publicitaires ont demandé à leur regroupement industriel, la malhonnête et peu recommandable Interactive Advertising Bureau (ou IAB) Europe, d’imaginer un classique du genre, le « Cadre de transparence et de consentement » (TCF), qui selon eux permettait aux annonceurs de ne pas se conformer au RGPD. Le TCF est une justification bidon de ces stupides fenêtres de consentement.

Cette semaine, l’autorité de protection des données a jugé que le TCF c’est des grosses conneries et que c’est illégal. Ils ont jugé que le TCF :
• ne conserve pas les données personnelles de façon sécurisée, comme l’exige le RGPD ;
• ne recueille pas correctement le consentement des personnes ;
• n’a pas défini un « intérêt légitime » légalement valide pour la collecte de ces informations ;
• échoue à être transparent sur ce qui est fait de ces données personnelles ;
• échoue à veiller à ce que ces données soient traitées en accord avec les lignes directrices du RGPD ;
• échoue à respecter les critères du RGPD de « protection des données dès la conception ».

À part ça, c’est absolument super.

Chapeau à l’ICCL (Conseil irlandais pour les libertés civiles) pour avoir porté cette grosse affaire devant les instances européennes. Et un prix Nobel de quelque chose pour Johnny Ryan qui veille sans relâche sur les droits à la vie privée au nom de nous tous. On peut voir Johnny Ryan parler aux infos de ce jugement.

Question suivante : qu’est-ce que ça va changer pour le secteur de la publicité ciblée ? Comme nous le savons, ce secteur fait régulièrement un doigt d’honneur aux régulateurs et fait absolument tout ce qui lui chante. Les régulateurs pensent qu’ils gèrent les choses, mais leur incompétence pathétique et leur couardise ont permis au secteur de la publicité ciblée d’en faire voir de toutes les couleurs aux régulateurs et au public, depuis l’instauration du RGPD. Une conséquence de ce jugement est que Google et tous les autres acteurs du secteur de la publicité ciblée en ligne sont sommés de brûler toutes les données qu’ils ont collectées illégalement. Google se conformera à ça quand les réfrigérateurs auront des ailes.

L’IAB Europe a maintenant six mois pour corriger l’illégalité flagrante de leur TCF absurde. Que vont-ils faire ? À mon avis, ils vont pondre une autre magnifique bouse qui va prendre des années à contester, pendant que les publicitaires continueront d’entuber joyeusement le public. Comme d’habitude, j’espère avoir tort.

Le secteur de la publicité ciblée, en particulier Google et Amazon, amasse beaucoup trop d’argent pour en avoir quoi que ce soit à faire des amendes de pacotille que les régulateurs leur distribuent pour leurs activités criminelles. Pour eux, ce sont juste des frais de fonctionnement. Facebook n’essaie même pas de se soumettre au TCF, ils n’ont de comptes à rendre à personne.

Rien ne changera tant que personne n’aura été envoyé en prison.

Perspective locale

L’ironie dans tout ça, c’est que juste au moment où l’IAB étatsunienne est sur le point de spammer le monde entier avec sa version du TCF, les régulateurs de l’UE l’ont détruite.

Un peu de contexte…

Ici, aux États-Unis, il n’y a pas de loi contre quoi que ce soit. L’entité la plus proche que nous possédons pour réguler ce secteur corrompu de la publicité ciblée en ligne est appelée Loi de protection du consommateur en Californie (ou CCPA en anglais, California Consumer Protection Act). Elle est largement inspirée par le RGPD et aussi loin que remontent les mémoires, elle n’a jamais protégé qui que ce soit de quoi que ce soit (elle sera remplacée l’année prochaine par une autre bouillie de lettres appelée CPRA).
L’IAB étatsunienne a repris la formule illégale du TCF de leur branche Europe et l’a maladroitement transposée à la CCPA. Ils ont aussi convaincu les clowns, les escrocs et les collaborateurs de l’ANA, de la 4As (respectivement « Association of National Advertisers » et « American Association of Advertising Agencies » [des associations américaines de publicitaires, NdT]) et de grandes marques d’implémenter le TCF maintenant discrédité sous un nouveau nom foireux, « Global Privacy Platform » (Plateforme globale de la vie privée). Ouais, c’est ça.

Vue d’ensemble : L’arrogance des secteurs de la tech et du marketing aux États-Unis est tellement énorme que les actions des régulateurs n’ont quasi aucun poids. Quel sera l’effet le plus probable du jugement de cette semaine sur l’abus des données aux États-Unis ? En comptant à rebours, qu’est-ce qui vient après zéro ?
Ai-je déjà mentionné que rien ne changera tant que personne ne sera envoyé en prison ?

Comédie-ballet

La danse des régulateurs et du secteur de la publicité ciblée n’est rien d’autre qu’une performance artistique : les régulateurs portent plainte, les escrocs paient une petite amende, et tout le monde retourne à ses petites affaires.

Tout individu doté d’un cerveau fonctionnel peut comprendre qu’un secteur de la publicité ciblée basé sur du pistage est un racket criminel aux proportions gigantesques. C’est une vaste escroquerie planétaire, un crime organisé à l’échelle mondiale auquel participent quasi toutes les grandes entreprises, les organisations commerciales les plus réputées et l’ensemble des secteurs de la publicité, du marketing et des médias en ligne. Même l’IAB a reconnu avoir indiqué à la Commission européenne que les achats automatiques basés sur des enchères en temps réel sont « incompatibles avec le consentement prévu par le RGPD ».
Mais trop de personnes se font trop d’argent.
Rien ne changera tant que personne… ooooh, laissez tomber.

Si vous souhaitez vous abonner à la newsletter de Bob Hoffman (en anglais) ou simplement consulter les numéros précédents c’est par ici https://www.bobhoffmanswebsite.com/newsletters




Infoclimat : un commun météorologique et climatologique à préserver !

Infoclimat est une association de passionné·es de météo, qui agit pour favoriser et vulgariser l’échange de données et de connaissances autour de la météo et du climat.
Nous baignons dans les mêmes eaux et partageons les mêmes valeurs : les communs culturels doivent être ouverts à toutes et tous pour l’intérêt général !
L’association va fêter ses 20 ans et se lancer dans un nouveau projet : le recrutement de son·sa premier·ère salarié·e. C’est l’occasion de donner la parole à Frédéric Ameye et Sébastien Brana, tous deux bénévoles.

Bonjour Frédéric et Sébastien, pouvez-vous vous présenter ?

Frédéric Ameye (FA), 27 ans, je suis ingénieur dans les systèmes embarqués pendant les heures ouvrables… et en-dehors de ça, je suis depuis longtemps « Linuxien » et (modeste) défenseur du logiciel libre, mais aussi de l’égalité des chances à l’école — issu d’une famille ouvrière très modeste, c’est quelque chose qui me tient beaucoup à cœur. Le reste du temps (quand il en reste), vous me trouverez principalement en rando au fin fond de la montagne…

J’ai intégré l’aventure Infoclimat en 2009 (j’avais alors 15 ans), période à laquelle j’ai « refondu » le site web de l’asso à partir de l’ordinateur familial à écran cathodique, que je monopolisais des dizaines d’heures par semaine, jusqu’à très tard dans la nuit. J’ai continué ce rôle jusqu’à aujourd’hui (avec un écran plat, et moins d’heures dans la nuit car la trentaine arrive vite). Entre-temps, j’ai rejoint le Conseil d’Administration, et je suis ensuite devenu Vice-Président en 2015.

Sébastien Brana (SB), 42 ans. Dans la vie « hors Infoclimat », je suis chef de projet informatique à la Direction générale des finances publiques… et comme Frédéric, en dehors de « ça », j’occupe une grande partie de mon temps libre (soirées, week-end et congés) au profit du site et de l’association que j’ai rejoint en 2005 et dont je suis également Vice-Président depuis 12 ans. Au-delà des phénomènes météo (orages et chutes de neige notamment) qui m’ont toujours fasciné depuis aussi loin que je me souvienne, je suis également passionné par la communauté que nous avons formée depuis une vingtaines d’années, rassemblant des personnes de tous âges (des gamins de 10 ans aux retraités) et de tous milieux, amateurs ou professionnels, scientifiques ou littéraires, ou simplement amoureux de beaux paysages et de photographies. La météo touche tout le monde, les questions liées au climat interrogent tout le monde – bref, ces sujets intéressent voire passionnent bien au-delà des barrières sociales habituelles !

Vous êtes membres bénévoles de Infoclimat, pouvez-vous nous parler du projet de l’association ?

SB : Initialement, Infoclimat était un petit groupe de passionnés de météo et de climat, qui partageaient leurs relevés entre-eux à la fin des années 90, sur un site web appelé « OrageNet ». Tout cela a progressivement grossi, jusqu’à l’année 2003, où l’association a été créée principalement pour subvenir aux besoins d’hébergement du site web. A l’époque, nous étions déjà (et sans le savoir!) en « Web 2.0 » et pratiquions les sciences participatives puisque l’essentiel du contenu était apporté par les passionnés ; nous étions alors bien loin d’imaginer que les problématiques liées au climat deviendraient un enjeu mondial avec une telle résonance médiatique.

Site internet d'Infoclimat entre les années 90 et aujourd'hui
Infoclimat a beaucoup évoluée, entre les débuts sur un internet confidentiel des années 90 dédié au partage, au web d’aujourd’hui.

 

FA : Depuis, l’objet social s’est considérablement diversifié, avec la montée en puissance de notre asso. Aujourd’hui, nous visons trois thématiques particulières :

  • L’engagement citoyen au service de la météo et du climat : partager ses relevés, ses observations météo, installer des stations météorologiques,… au service de tous ! Cela permet de comprendre comment le climat change, mais aussi de déceler des particularités locales que les modèles de prévision ne savent pas bien prendre en compte, ou qui ne peuvent pas être mesurées facilement.
  • Valoriser la donnée météo et climato, qu’elle soit issue de services officiels ou diffusée en « OpenData » par nous ou nos passionnés, et en particulier en faire des outils utiles autant aux « pros » et chercheurs, qu’au service de la vulgarisation des sujets climatiques pour le grand public. Les utilisations sont très nombreuses : agriculture, viabilité hivernale, thermique dans l’habitat, recherches sur le changement climatique, production électrique, journalistes…
  • Former et transmettre les connaissances, par la production de contenus de vulgarisation scientifique, l’organisation de « rencontres météo », ou encore des interventions auprès des écoles, dans des événements sur le terrain ou sur les réseaux sociaux. Bref, contrer la désinformation et le buzz !

 

Installation de matériel météo
Quand Infoclimat débarque quelque part, c’est rarement pour pique-niquer… Mais plutôt pour installer du matériel météo !

 

Vous faites donc des prévisions météo ?

SB : Même si le forum est largement animé par des prévisionnistes amateurs, nous parlons finalement assez peu de prévisions météo : le cœur du site, c’est l’observation météo en temps réel et la climatologie qui résulte des données collectées, qui sont des sujets bien différents ! Il y aurait tant à dire sur le monde de la prévision météo, mais cela mériterait un article à lui seul, car il y a un gros sujet là aussi sur l’ouverture des données et la paternité des algorithmes… Souvent négligée, l’observation météorologique est pourtant fondamentale pour produire une bonne prévision. Pour faire court, la donnée météo « observée » est la nourriture qu’il faut pour entraîner les modèles climatiques, et faire tourner les modèles numériques qui vous diront s’il faut un parapluie demain sur votre pixel de 1km².

Observations météo avec le modèle français AROME
Quantité d’observations météo intégrées dans le modèle de prévisions français « AROME », source principale de toutes les prévisions en France métropolitaine. La performance des modèles météorologiques est fortement corrélée à la quantité, la fréquence, et à la qualité de leurs données d’entrées (observations radar, satellite, avions, stations météo au sol,…). La quantité d’observations des stations Météo-France est à peu près équivalente à la quantité de données produites par les passionnés d’Infoclimat. Graphique simplifié, hors données radar. Avec l’aimable autorisation de Météo-France et du CNRM.

 

FA : Ce qu’il faut savoir, c’est que l’immense majorité des sites internet ou appli que vous consultez ne font pas de prévisions météo, mais utilisent des algorithmes automatisés qui traitent des données fournies (gratuitement ou avec redevance) par les organismes publics (Météo-France, la NOAA, le Met-Office, l’organisme européen ECMWF,…). La qualité des prévisions est en gros corrélée à l’argent que les créateurs des sites et des applis peuvent injecter pour récolter des données brutes de ces modèles numériques. Par exemple, pour avoir les données du modèle de Météo-France « AROME », c’est à peu près gratuit car les données sont sous licence Etalab, mais si vous voulez des données plus complètes, permettant d’affiner vos algorithmes et de proposer « mieux », c’est sur devis.

Dès lors, Infoclimat ne souhaite pas se lancer dans cette surenchère, et propose uniquement des prévisions automatisées issues de données ouvertes de Météo-France et de la NOAA, et indique très clairement la différence entre prévisions automatisées et bulletins rédigés par des passionnés.

Image des "cubes" de données des modèles météo
La Terre est découpée en petits cubes dans lesquels les modèles météo estiment les paramètres de l’atmosphère à venir. Les cubes sont généralement bien plus gros lorsque les échéances sont lointaines (J+4, J+5…), ce qui empêche les modèles météorologiques de discerner les phénomènes météo de petite échelle (averses, orages, neige, effets des reliefs et des côtes). Pourtant, de nombreuses appli météo se contentent de vous fournir grossièrement ces données sans l’explication qui va avec. Chez Infoclimat, on laisse volontairement la résolution native, pour ne pas induire le lecteur en erreur sur la résolution réelle des données.

 

Cela me fait toujours rire (jaune) quand j’entends « [site ou appli] a de meilleures prévisions à chaque fois, et en plus, on les a à 15 jours ! » : lorsqu’il s’agit de prévisions « automatiques », par ville, il est probable qu’il utilise les mêmes données que tous les autres, présentées légèrement différemment, et qu’il s’agisse juste d’un biais de confirmation. Il existe bien sûr quelques exceptions, certaines entreprises faisant un vrai travail de fusion de données, d’analyse, de suppression des biais, pour proposer des informations de très grande qualité, généralement plutôt payantes ou pour les pros. Mais même chez ceux qui vous vendent du service d’aide à la décision, de protection des biens et des personnes, des données expertisées ou à vocation assurantielles, vous seriez très surpris de la piètre qualité de l’exploitation qui est faite de ces données brutes.

Graphique présentant la technique de prévision ensembliste
Les modélisateurs météo ont plein de techniques pour prendre en compte les incertitudes dans les observations et les modèles, notamment ce que l’on appelle la « prévision ensembliste ». Mais ces incertitudes sont rarement présentées ou expliquées au public. Ici par exemple, le graphique présente la quantité de pluie prédite par un modèle météo le 6 janvier, pour la période entre le 6 janvier et le 16 janvier 2022, sur un point de la France. Le modèle considère plusieurs scénarios d’évolution possible des futurs météorologiques. Source : ECMWF, CC BY 4.0.

 

Malheureusement, cette situation rend très délicate la perception des prévisions météo par le grand public (« ils se trompent tout le temps ») : la majorité des applis prend des données gratuites, de faible qualité, sur le monde entier, qui donnent une prévision différente 4 fois par jour au fil des calculs. Cela ne met vraiment pas en valeur le travail des modélisateurs, qui font pourtant un travail formidable, les modèles numériques s’améliorant considérablement, et décrédibilisent aussi les conclusions des organismes de recherche pour le climat (« ils ne savent pas prévoir à 3 jours, pourquoi ils sauraient dans 50 ans ?! »), alors qu’il s’agit surtout d’une exploitation maladroite de données brutes, sans accompagnement dans leur lecture.

Graphique présentant l'amélioration de la qualité des prévisions de l'état de l'atmosphère
Ce graphique présente, grosso-modo, l’amélioration de la qualité des prévisions de l’état de l’atmosphère au fil des années, à diverses échéances de temps (jaune = J+10, vert = J+7, rouge = J+5, bleu = J+3) et selon les hémisphères terrestres. Plus c’est proche de 100%, meilleures sont les prévisions ! Source : ECMWF, CC BY 4.0. 

 

Du coup, quelles actions menez-vous ?

FA : Notre action principale, c’est la fourniture d’une plateforme sur le web, qu’on assimile souvent au « Wikipédia de la météo », ou à un « hub de données » : nous récoltons toutes sortes de données climatiques et météorologiques de par le monde, pour les décoder, les rendre digestes pour différents publics, et la mettre en valeur pour l’analyse du changement climatique. Ce sont par exemple des cartographies, ou des indices d’évolution du climat. C’est notre rôle initial, qui aujourd’hui compile plus de 6 milliards de données météo, à la qualité souvent rigoureusement contrôlée par des passionnés ! Il faut savoir que nous n’intégrons pas toutes les stations météo : nous respectons des normes de qualité du matériel et de l’environnement, pour que les données soient exploitables et comparables entre-elles, comparables avec des séries climatiques historiques, et assimilables dans des modèles numériques de prévision.

 

Infoclimat propose une interface simple et très complète
Infoclimat propose l’accès à toutes les informations météo et climatiques dans des interfaces qui se veulent simples d’accès, mais suffisamment complètes pour les plus experts. Dur équilibre !

 

SB : Avec l’accroissement de notre budget, nous avons pu passer à l’étape supérieure : installer nos propres stations météo, et soutenir les associations locales et les passionnés qui en installent et qui souhaitent mettre leurs données au service d’une base de données commune et libre.

Randonnée pour installer la station météo à Casterino
Les passionnés ne reculent devant rien pour l’intérêt général. Aller installer une station météo à Casterino, village des Alpes Maritimes qui s’est retrouvé isolé de tout après la tempête Alex ? C’est fait, et avec le sourire malgré les kilomètres avec le matériel sur le dos ! Retrouvez l’article ici

 

Il faut savoir que la donnée météo se « monnaye », et chèrement: Météo-France, par exemple, ne met à disposition du grand public que quelques pourcents de ses données, le reste étant soumis à des redevances de plusieurs centaines de milliers d’euros par an (on y reviendra). Ce n’est d’ailleurs pas le cas dans tous les pays du monde, les États-Unis (NOAA) ont été précurseurs, beaucoup de pays Européens s’y mettent, mais la France est un peu en retard… Nous sommes partenaires de Météo-France, participons à des travaux communs dans le cadre du « Conseil Supérieur de la Météorologie », mais c’est très long, trop long, et cela prive Météo-France d’une source de revenus importante dans un contexte de stricte restriction budgétaire. L’établissement public administratif se retrouve en effet pris dans une injonction contradictoire par son autorité de tutelle (le Ministère de la Transition écologique et solidaire) : d’un côté il doit « libérer » les données publiques et mettre en place les infrastructures nécessaires, de l’autre, on lui intime l’ordre de trouver de nouvelles sources de financement par sa branche commerciale, et on lui réduit ses effectifs !

Redevances Météo France
Redevances demandées par Météo-France pour accéder aux données météo de son réseau « RADOME » (90% des stations françaises). Hors de portée de notre association ! Source

 

Données ouvertes météo France et données Infoclimat
Le réseau de stations en France, avec les données ouvertes de Météo-France (à gauche), et avec les données Infoclimat et partenaires en plus (à droite). Remarquez le contraste avec certains autres pays Européens !

 

Aujourd’hui, Infoclimat c’est donc un bon millier de stations météo (les nôtres, celles des passionnés, et de nos associations partenaires), qui complètent les réseaux nationaux dans des zones non couvertes, et qui permettront à l’avenir d’améliorer la fiabilité des modèles météo de Météo-France, dans des travaux que nous menons avec eux sur l’assimilation des réseaux de données partenaires. Parfois d’ailleurs, nous réinstallons des stations météo là où Météo-France est parti ou n’a pas souhaité améliorer ou maintenir des installations, comme au Mont-Ventoux (84), ou à Castérino (06). Et ces données intéressent une multitude d’acteurs, que nous découvrons souvent au hasard des installations : au-delà de l’intérêt pour la météo des particuliers (« combien fait-il au soleil? » « quelle quantité de pluie est tombée la nuit dernière? »), les activités professionnelles météo-sensibles allant de l’agriculture à l’expertise en assurance, en passant par les études de risques et/ou d’impacts jusqu’aux recherches sur les « ICU » (ilots de chaleurs urbains observés dans les milieux urbanisés) se montrent très demandeuses et n’hésitent pas à se tourner vers nous pour leur fournir de la « bonne data-météo ».

Réhabilitation d'une station météo au Mont-Ventoux
Réhabiliter une station météo au sommet du Mont-Ventoux : check. Les données météo sont par ici. 

 

Enfin, le troisième pilier, c’est la pédagogie. Nous avons repris en 2018, à nos frais et sans aucune subvention, l’initiative « Météo à l’École », qui avait été lancée en 2008 par le Ministère de l’Éducation Nationale avec Météo-France et l’Observatoire de Paris, mais qui a failli disparaître faute de budget à la fin du « Grand Emprunt ». L’objectif : sensibiliser de manière ludique les publics du primaire et du secondaire aux enjeux de la météo et du climat. Installer une station météo dans un collège permet de faire un peu de techno, traiter les données en faisant des maths, des stats et de l’informatique, et enfin les analyser pour parler climat et Système Terre.
Aujourd’hui, nous hébergeons les données des quelques 60 stations, ainsi que les contenus pédagogiques de Météo À l’École, permettant aux profs d’échanger entre eux.

Photo : Météo à l'École
Installer des stations météo dans les écoles, expliquer les concepts de la météo et du climat, « jouer » avec des données, et discuter entre profs : c’est ce que permet le programme Météo à l’École

 

Depuis de nombreuses années, nous complétons cela avec des interventions auprès des jeunes et moins jeunes, sous forme d’ateliers ou de journées à thème (« Rencontres Météo et Espace », « Nuit des Chercheurs », « Fête du Vent »,…), un peu partout en France selon la disponibilité de nos bénévoles !

Rencontre Météo et Espace
Lors des Rencontres Météo et Espace organisées par le CNES, Infoclimat et Météo-France, les enfants apprennent par exemple comment on mesure les paramètres en altitude dans l’atmosphère, grâce aux ballons sondes.

 

Photos : évènements tout publics
Nous aimons autant apprendre des choses aux très jeunes (à gauche), qu’aux moins jeunes (à droite), lors d’événements tout-publics.

 

Quelles valeurs défendez-vous ?

FA : La première de nos valeurs, c’est l’intérêt général ! Ce que nous avons conçu au cours de ces vingt dernières années n’appartient à personne, c’est un commun au service de tous, et pour certaines informations, c’est même le point de départ d’un cercle vertueux de réutilisation, par la libération des données en Open-Data.

Page OpenData d'Infoclimat
La page OpenData d’Infoclimat, qui permet de s’abstraire des complexités des formats météo, des différents fournisseurs, et tente de résoudre au mieux la problématique des licences des données.

Comme on l’a dit plus haut, le monde de la météo est un juteux business. Vous trouverez pléthore de sites et applis météo, et leur composante commune, c’est que ce sont des sociétés à but lucratif qui en font un business, sous couvert d’engagement citoyen et de « communauté ». Vous y postez vos données et vos photos, et ils en tirent en retour des revenus publicitaires, quand ils ne revendent pas les données météo à d’autres sociétés (qui les mâchouillent et en font de l’analyse pour d’autres secteurs d’activité).

Parmi les initiatives similaires, on peut citer parmi les plus connues « Weather Underground » (appartenant à IBM et destinée à alimenter Watson) ou encore « Awekas » (Gmbh allemande), « Windy » (société tchèque), « Météociel » (SAS française), qui sont des sociétés privées à plusieurs centaines de milliers ou quelques millions d’euros de CA. On notera d’ailleurs que toutes ces initiatives ont des sites souvent moins complets que le notre !
On se retrouve dans une situation parfois ubuesque : ces types de sociétés peuvent acheter des données payantes à l’établissement public Météo-France (pour quelques centaines de milliers d’euros par an), et les proposent ensuite à tous sur leur site web, rémunéré par la publicité ou par abonnement à des fonctionnalités « premium ». Alors qu’elles pourraient bénéficier à tous dans une base de données librement gérée comme celle d’Infoclimat, et aussi servir nos outils d’analyse du changement climatique ; il faut passer obligatoirement par les sites de ces sociétés privées pour bénéficier des données produites par l’établissement public… et donc en partie avec l’argent public. D’autres acteurs de notre communauté en faisant déjà echo il y a bien des années, et la situation n’a pas changé : https://blog.bacpluszero.com/2014/06/comment-jai-failli-faire-doubler-le.html.

Photo : visite Météo France
Nos adhérents et administrateurs lors d’une visite chez Météo-France, en 2016. Malgré un partenariat depuis 2009, l’établissement public éprouve toujours des difficultés à partager ses données avec la communauté, mais s’engage à ses côtés dans la formation et le support technique. En mémoire de nos bénévoles disparus Pouic, Mich’, Enzo.

 

SB : Notre force, c’est de pouvoir bénéficier d’une totale indépendance, grâce à nos adhérents, mécènes et donateurs. On a réalisé le site dont on a toujours rêvé, pas celui qui générera le plus de trafic possible pour en tirer un revenu. Les données des stations météo que nous finançons sont toutes placées sous licences ouvertes, et nos communications sont rigoureuses et factuelles plutôt que « putaclic » (ce qui nous vaut d’ailleurs une notoriété encore assez limitée chez le grand public, en dehors des photos de nos contributeurs reprises dans les bulletins météo de France TV notamment).

Trouvez-vous aussi votre indépendance vis-à-vis des GAFAM ?

FA : Cela reste encore perfectible : si nous croyons à notre indépendance et au respect des utilisateurs, il y aurait encore des reproches à nous faire. Nous mettons vraiment beaucoup en place pour respecter les données (qu’elles soient météo, personnelles, ou les droits des photographes), nous auto-hébergeons l’immense majorité des contenus (sur 12 serveurs dédiés OVH, du cloud Scaleway, et des machines gracieusement prêtées par Gandi, et même un NAS chez un administrateur fibré !), et essayons d’éviter les services tiers, et les fuyons au possible lorsqu’ils sont hébergés ou contrôlés à l’étranger. Mais tout n’est pas toujours si simple.

Par exemple, nous utilisions jusqu’à très récemment encore Google Analytics, par « simplicité » : tout notre historique depuis 2008 y est stocké, et une instance Matomo assez dimensionnée pour 150M de pages vues par an, ça veut dire gérer une nouvelle machine, et des coûts supplémentaires… pour une utilisation assez marginale, notre exploitation des statistiques étant très basique, puisque pas de publicités et pas de « conversions » ou « cibles d’audience »… Mais tout de même appréciée des bénévoles pour analyser la fréquentation et l’usage des rubriques du site. Il doit aussi traîner quelques polices de caractères hébergées par Google, mais tout le reste est 100% auto-hébergé et/ou « fait maison ».

Complexité des cartes de Infoclimat
Nos cartes sont complexes et nécessitent des données géospatiales de bonne qualité, et à jour. Maintenir à jour une telle base, seuls, et à l’échelle mondiale, est… un projet à lui tout seul.

 

Nous sommes aussi de gros consommateurs de contenus cartographiques, et proposons des interfaces de visualisation mondiales plutôt jolies (basées sur OpenLayers plutôt que GoogleMaps), mais qui nécessitent des extractions de données particulières (juste les villes, un modèle de terrain haute résolution, ou bien juste les rivières ou limites administratives). C’est un sujet qui peut aussi être vite difficile à gérer.
À une époque, on stockait donc une copie partielle de la base de données OpenStreetMap sur l’Europe, et je générais moi-même des carto avec Tilemill / Mapserver / Geowebcache et des styles personnalisés. Les ressources nécessaires pour faire ça étaient immenses (disque et CPU), la complexité technique était grande, et que dire quand il faut tenir toutes ces bases à jour. C’est un projet à lui tout seul, et on ne peut pas toujours réinventer la roue. Bref, pour le moment, nous utilisons les coûteux services de Mapbox.

Vous nous avez parlé de certaines limites dans votre travail bénévole, qu’est-ce qui vous pose problème ?

FA : Le problème majeur, c’est le développement web du site. La majorité de nos outils sont basés sur le site web : cartes, graphiques, statistiques climatiques, espaces d’échange, contenus pédagogiques, tout est numérique. Aujourd’hui, et depuis 13 ans, le développement et la maintenance du site et de ses serveurs repose sur un seul bénévole (moi !). Déjà, ce n’est pas soutenable humainement, mais c’est aussi assez dangereux.
La raison est simple : un logiciel avec 400.000 lignes de code, 12 serveurs, des technologies « compliquées » (formats de fichiers spécifiques à la météo, cartes interactives, milliards d’enregistrements, bases de données de plusieurs téraoctets,…), ce n’est pas à la portée du premier bénévole qui se pointe ! Et il faut aussi beaucoup d’accompagnement, ce qui est difficile à combiner avec la charge de travail existante.

Pour les plus geeks d’entre-vous, concrètement, voici les technos sur lesquelles sont basées nos plateformes : PHP (sans framework ni ORM !), Javascript/jQuery, OpenLayers, Leaflet, Highcharts, Materialize (CSS), pas mal de Python pour le traitement de données météo (Scipy/Numpy) du NGINX, et pour les spécifiques à notre monde, énormément de GDAL et mapserver, geowebcache, des outils loufoques comme NCL, des librairies pour lire et écrire des formats de fichiers dans tous les sens (BUFR, SYNOP, METAR, GRIB2, NetCDF).
Et bien sûr surtout MariaDB, en mode réplication (et bientôt on aura besoin d’un mode « cluster » pour scaler), des protocoles de passage de message (RabbitMQ, WebSockets), de l’ElasticSearch et SphinxSearch pour la recherche fulltext, et du Redis + Memcached pour les caches applicatifs.
Au niveau infra, évidemment de la gestion de firewall, de bannissement automatique des IP, un peu de répartition de charge, de l’IP-failover, un réseau dédié entre machines (« vRack » chez OVH), beaucoup de partages NFS ou de systèmes de fichiers distribués (GlusterFS, mais c’est compliqué à maintenir donc on essaie de migrer vers de l’Object-Storage type S3).
Et on a aussi une appli mobile Android en Java, et iOS en Swift, mais elles sont vieillissantes, fautes de moyens  (leur développement a été sous-traité), et la majorité des fonctionnalités est de toutes façons destinée à être intégrée sur le site en mode « responsive design ».
Je passe sur la nécessité de s’interfacer avec des API externes (envois de mails, récupération de données météo sur des serveurs OpenData, parsing de données météo, API de la banque pour les paiements d’adhésions), des outils de gestion interne (Google Workspace, qui est « gratuit » pour les assos, hé oui !), des serveurs FTP et VPN pour connecter nos stations météo, un Gitlab auto-hébergé pour le ticketing et le code source …

SB : On a aussi des difficultés à dégager du temps pour d’autres actions : installer des stations météo par exemple, ce n’est pas négligeable. Il faut démarcher des propriétaires, obtenir des autorisations, parfois signer des conventions compliquées avec des collectivités locales, gérer des problématiques « Natura 2000 » ou « Bâtiments de France », aller sur site,… c’est assez complexe. Nous essayons de nous reposer au maximum sur notre communauté de bénévoles et adhérents pour nous y assister.

Quels sont vos besoins actuels ?

SB : Dans l’idéal, et pour venir en renfort de Frédéric, nous aurions besoin d’un développeur « full-stack » PHP à plein temps, et d’un DevOps pour pouvoir améliorer l’architecture de tout ça (qui n’est plus au goût des stacks technologiques modernes, et sent un peu trop l’année 2010 plutôt que 2022, ce qui rend la maintenance compliquée alors que le trafic web généré suppose de la perf’ et des optimisations à tous les niveaux).
Ce n’était pas immédiatement possible au vu des revenus de l’association, qui atteignaient environ 60.000€ en 2021, dont 15.000€ sont dépensés en frais de serveurs dédiés chez OVH (passer au tout-cloud coûte trop cher, en temps comme en argent,… mais gérer des serveurs aussi !).

FA : On développe aussi deux applis Android et iOS, qui reprennent les contenus du site dans un format simplifié, et surtout permettent de recevoir des alertes « push » selon les conditions météo, et d’afficher des widgets. Elles sont dans le même esprit que le site (pas de pubs, le moins de contenus tiers possibles), cependant ce sont des applis que l’on a sous-traité à un freelance, ce qui finit par coûter très cher. Nous réfléchissons à quelle direction donner à celles-ci, surtout au vu de l’essor de la version « responsive » de notre site.
Nous aimerions commencer à donner une direction européenne à notre plateforme, et la mettre à disposition des communautés d’autres pays. Il y a un gros travail de traduction, mais surtout de travaux techniques pour rendre les pages de notre site « traduisibles » dans différentes langues.

Vous ouvrez cette année un premier poste salarié, quelle a été votre démarche ?

SB : Dès lors, nous avions surtout un besoin intermédiaire, qui vise à faire progresser nos revenus. Pour cela, notre première marche sur l’escalier de la réussite, c’est de recruter un·e chargé·e de développement associatif, chargé d’épauler les bénévoles du Conseil d’Administration à trouver des fonds : mécènes et subventionneurs publics. Les sujets climat sont au cœur du débat public aujourd’hui, l’engagement citoyen aussi (on l’a vu avec CovidTracker !), nous y participons depuis 20 ans, mais sans savoir nous « vendre ».

FA : Cette première marche, nous l’avons franchie grâce à Gandi, dans le cadre de son programme « Gandi Soutient », qui nous a mis en relation avec vous, Framasoft. Vous êtes gentiment intervenus auprès de nos membres de Conseil d’Administration, et vous nous avez rassurés sur la capacité d’une petite association à se confronter aux monopoles commerciaux, en gardant ses valeurs fondatrices. Sans votre intervention, nous n’aurions probablement pas franchi le pas, du moins pas aussi vite !

Intervention de Framasoft pendant une réunion du CA de Infoclimat

 

SB : Cela va nous permettre de faire souffler une partie de nos bénévoles. Même si cela nous fait peur, car c’est une étape que nous n’osions pas franchir pour préserver nos valeurs, c’est avec une certaine fierté que nous pouvons aujourd’hui dire : « nous sommes une asso d’intérêt général, nous proposons un emploi au bénéfice de tous, et qui prend sa part dans la mobilisation contre le changement climatique, en en donnant des clés de compréhension aux citoyens ».

FA : La seconde étape, c’est recruter un⋅e dév’ web full-stack PHP/JS, quelqu’un qui n’aurait pas été impressionné par ma liste de technos évoquée précédemment ! Comme nous avons eu un soutien particulièrement fort de notre communauté en ce début d’année, et que notre trésorerie le permet, nous avons accéléré le mouvement, et la fiche de poste est d’ores-et-déjà disponible, pour un recrutement envisagé à l’été 2022.

Comment pouvons-nous soutenir Infoclimat, même sans s’y connaître en stations météo ?

FA : Pour celles et ceux qui en ont les moyens, ils peuvent nous soutenir financièrement : c’est le nerf de la guerre. Quelques euros sont déjà un beau geste ; et pour les entreprises qui utilisent quotidiennement nos données (on vous voit !), un soutien plus important permet à nos outils de continuer à exister. C’est par exemple le cas d’un de nos mécènes, la Compagnie Nationale du Rhône, qui produit de l’électricité hydroélectrique et éolienne, et est donc légitimement intéressée de soutenir une asso qui contribue au développement des données météo !
Pour cela, nous avons un dossier tout prêt pour expliquer le détail de nos actions auprès des décideurs. Pour aller plus loin, une seule adresse : association@infoclimat.fr

Et pour ceux qui veulent aussi s’investir, nous avons une page spécifique qui détaille le type de tâches bénévoles réalisables : https://www.infoclimat.fr/contribuer.

Ce n’est pas exhaustif, il y a bien d’autres moyens de nous épauler bénévolement, pour celles et ceux qui sont prêts à mettre les mains dans le cambouis : des webdesigners, développeurs aguerris, experts du traitement de données géographique, « datavizualisateurs », ou même des gens qui veulent faire de l’IA sur des séries de données pour en trouver les erreurs et biais : il y a d’infinies possibilités ! Je ne vous cacherai pas que le ticket d’entrée est assez élevé du point de vue de la technique, cela dit…

SB : Pour les autres, il reste l’énorme possibilité de participer au site en reportant des observations via le web ou l’appli mobile (une paire d’yeux suffit!) ainsi que des photos, ou… simplement nous faire connaître ! Une fois comprise la différence entre Infoclimat et tous les sites météo, dans le mode de fonctionnement et l’exploitation commerciale ou non des données, on comprend vite que notre association produit vraiment de la valeur au service des citoyens, sans simplement profiter des données des autres, sans apporter sa pierre à l’édifice, comme le font nonchalamment d’autres initiatives. Par ailleurs, nous avions pour projet d’avoir une page sur Wikipédia, refusée par manque de notoriété 🙁 . Idem pour la demande de certification du compte Twitter de l’Association, qui pourtant relaie de l’information vérifiée et montre son utilité lors des événements météo dangereux ou inhabituels, comme lors de l’éruption tout récente du volcan Hunga Tonga-Hunga Ha’apai sur les Iles Tonga qui a été détectée 15h plus tard et 17.000 km plus loin par nos stations météo lors du passage de l’onde de choc sur la métropole!

Capture écran : tweets postés avec le passage de l'onde de choc après l'erruption du volcan des Iles Tonga sur la métropole

FA : Infoclimat, c’est un peu l’OpenFoodFacts du Yuka, l’OpenStreetMap du GoogleMaps, le PeerTube du YouTube, le Wikipédia de l’Encarta (pour les plus vieux)… et surtout une formidable communauté, que l’on en profite pour remercier ici !

On vous laisse maintenant le mot de la fin !

SB : Bien sûr, on aimerait remercier tous ceux qui ont permis à cette aventure de progresser : tous les bénévoles qui ont œuvré depuis 20 ans, tous les adhérent⋅e⋅s qui ont apporté leur pierre, nos mécènes et donateurs, ainsi que les passionnés qui alimentent le site et nous soutiennent depuis toutes ces années!

FA : Le soutien de Gandi et Framasoft a aussi été un déclencheur, et j’espère que cela pourra continuer à être fructueux, au service d’un monde meilleur et désintéressé. Des initiatives comme la notre montrent qu’être une asso, ça permet de produire autant voire plus de valeur que bien des start-up ou qu’un gros groupe qu’on voit passer dans le paysage météo. Et pourtant, nous sommes souvent bien moins soutenus, ou compris.

 

Resources à consulter :