1

Écosocialisme numérique : une alternative aux big tech ?

Je vous propose la traduction, d’abord publiée sur mon blog avec l’aimable autorisation de son auteur Michael Kwet, d’un essai sur lequel je suis récemment tombé. Je pense qu’il mérite toute notre attention, car il pose non seulement un constat politique détaillé et sourcé sur le capitalisme numérique, mais il lui oppose aussi une véritable alternative.

D’accord ou pas d’accord, le fait d’avoir ce genre d’alternative est salutaire. Car si la politique, c’est la capacité à faire des choix, alors nous avons besoin d’avoir plusieurs alternatives entre lesquelles choisir. Autrement nous ne choisissons rien, puisque nous suivons l’unique chemin qui est devant nous. Et nous avançons, peut-être jusqu’au précipice…

L’article initial ainsi que cette traduction sont sous licence Creative Commons, ne vous privez donc pas de les partager si comme moi, vous trouvez cet essai extrêmement stimulant et précieux pour nos réflexions. Dans le même esprit, les commentaires sont à vous si vous souhaitez réagir ou partager d’autres réflexions.

— Louis Derrac


Écosocialisme numérique – Briser le pouvoir des Big Tech

Nous ne pouvons plus ignorer le rôle des Big Tech dans l’enracinement des inégalités mondiales. Pour freiner les forces du capitalisme numérique, nous avons besoin d’un Accord sur les Technologies Numériques 1 écosocialiste

En l’espace de quelques années, le débat sur la façon d’encadrer les Big Tech a pris une place prépondérante et fait l’objet de discussions dans tout le spectre politique. Pourtant, jusqu’à présent, les propositions de réglementation ne tiennent pas compte des dimensions capitalistes, impérialistes et environnementales du pouvoir numérique, qui, ensemble, creusent les inégalités mondiales et poussent la planète vers l’effondrement. Nous devons de toute urgence construire un écosystème numérique écosocialiste, mais à quoi cela ressemblerait-il et comment pouvons-nous y parvenir ?

Cet essai vise à mettre en évidence certains des éléments fondamentaux d’un programme socialiste numérique – un Accord sur les Technologies Numériques (ATN) – centré sur les principes de l’anti-impérialisme, de l’abolition des classes, des réparations et de la décroissance qui peuvent nous faire passer à une économie socialiste du 21e siècle. Il s’appuie sur des propositions de transformation ainsi que sur des modèles existants qui peuvent être mis à l’échelle, et cherche à les intégrer à d’autres mouvements qui prônent des alternatives au capitalisme, en particulier le mouvement de la décroissance. L’ampleur de la transformation nécessaire est énorme, mais nous espérons que cette tentative d’esquisser un Accord sur les Technologies Numériques socialiste suscitera d’autres réflexions et débats sur l’aspect que pourrait prendre un écosystème numérique égalitaire et les mesures à prendre pour y parvenir.

Le capitalisme numérique et les problèmes d’antitrust

Les critiques progressistes du secteur technologique sont souvent tirées d’un cadre capitaliste classique centré sur l’antitrust, les droits de l’homme et le bien-être des travailleur⋅se⋅s. Formulées par une élite d’universitaires, de journalistes, de groupes de réflexion et de décideurs politiques du Nord, elles mettent en avant un programme réformiste américano-eurocentré qui suppose la poursuite du capitalisme, de l’impérialisme occidental et de la croissance économique.

Le réformisme antitrust est particulièrement problématique car il part du principe que le problème de l’économie numérique est simplement la taille et les “pratiques déloyales” des grandes entreprises plutôt que le capitalisme numérique lui-même. Les lois antitrust ont été créées aux États-Unis pour promouvoir la concurrence et limiter les pratiques abusives des monopoles (alors appelés “trusts”) à la fin du XIXe siècle. Compte tenu de l’ampleur et de la puissance des Big Tech contemporaines, ces lois sont de nouveau à l’ordre du jour, leurs défenseurs soulignant que les grandes entreprises sapent non seulement les consommateurs, les travailleur⋅se⋅s et les petites entreprises, mais remettent également en question les fondements de la démocratie elle-même.

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large, comme je l’ai soutenu dans un article précédent, publié sur ROAR, les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud 2

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques. Le Royaume-Uni vise à produire son propre mastodonte de plusieurs milliards de dollars. Le président Emmanuel Macron va injecter 5 milliards d’euros dans des start-ups technologiques dans l’espoir que la France compte au moins 25 “licornes” – des entreprises évaluées à un milliard de dollars ou plus – d’ici 2025. L’Allemagne dépense 3 milliards d’euros pour devenir une puissance mondiale de l’IA et un leader mondial (c’est-à-dire un colonisateur de marché) de l’industrialisation numérique. Pour leur part, les Pays-Bas visent à devenir une “nation de licornes”. Et en 2021, la commissaire à la concurrence de l’Union européenne, Margrethe Vestager, largement applaudie, a déclaré que l’Europe devait bâtir ses propres géants technologiques européens. Dans le cadre des objectifs numériques de l’UE pour 2030, Mme Vestager a déclaré que l’UE visait à “doubler le nombre de licornes européennes, qui est aujourd’hui de 122.”

Au lieu de s’opposer par principe aux grandes entreprises de la tech, les décideurs européens sont des opportunistes qui cherchent à élargir leur propre part du gâteau.

D’autres mesures capitalistes réformistes proposées, telles que l’imposition progressive, le développement des nouvelles technologies en tant que service public3 et la protection des travailleur⋅se⋅s, ne parviennent toujours pas à s’attaquer aux causes profondes et aux problèmes fondamentaux. Le capitalisme numérique progressiste est meilleur que le néolibéralisme. Mais il est d’orientation nationaliste, ne peut empêcher le colonialisme numérique, et conserve un engagement envers la propriété privée, le profit, l’accumulation et la croissance.

L’urgence environnementale et la technologie

Les crises jumelles du changement climatique et de la destruction écologique qui mettent en péril la vie sur Terre constituent d’autres points faibles majeurs pour les réformateurs du numérique.

De plus en plus d’études montrent que les crises environnementales ne peuvent être résolues dans un cadre capitaliste fondé sur la croissance, qui non seulement augmente la consommation d’énergie et les émissions de carbone qui en résultent, mais exerce également une pression énorme sur les systèmes écologiques.

Le PNUE4 estime que les émissions doivent diminuer de 7,6 % chaque année entre 2020 et 2030 pour atteindre l’objectif de maintenir l’augmentation de la température à moins de 1,5 degré. Des évaluations universitaires estiment la limite mondiale d’extraction de matières durables à environ 50 milliards de tonnes de ressources par an, mais à l’heure actuelle, nous en extrayons 100 milliards de tonnes par an, ce qui profite largement aux riches et aux pays du Nord.

La décroissance doit être mise en œuvre dans un avenir immédiat. Les légères réformes du capitalisme vantées par les progressistes continueront à détruire l’environnement. En appliquant le principe de précaution, nous ne pouvons pas nous permettre de risquer une catastrophe écologique permanente. Le secteur des technologies n’est pas un simple spectateur, mais l’un des principaux moteurs de ces tendances.

Selon un rapport récent, en 2019, les technologies numériques – définies comme les réseaux de télécommunications, les centres de données, les terminaux (appareils personnels) et les capteurs IoT (internet des objets) – ont contribué à 4 % des émissions de gaz à effet de serre, et leur consommation d’énergie a augmenté de 9 % par an.

Et aussi élevé que cela puisse paraître, cela sous-estime probablement l’utilisation de l’énergie par le secteur numérique. Un rapport de 2022 a révélé que les géants de la grande technologie ne s’engagent pas à réduire l’ensemble des émissions de leur chaîne de valeur. Des entreprises comme Apple prétendent être “neutres en carbone” d’ici 2030, mais cela “ne comprend actuellement que les opérations directes, qui représentent un microscopique 1,5 % de son empreinte carbone.”

En plus de surchauffer la planète, l’extraction des minéraux utilisés dans l’électronique – tels que le cobalt, le nickel et le lithium – dans des endroits comme la République démocratique du Congo, le Chili, l’Argentine et la Chine est souvent destructive sur le plan écologique.

Et puis il y a le rôle central des entreprises numériques dans le soutien d’autres formes d’extraction non durable. Les géants de la technologie aident les entreprises à explorer et à exploiter de nouvelles sources de combustibles fossiles et à numériser l’agriculture industrielle. Le modèle économique du capitalisme numérique tourne autour de la diffusion de publicités visant à promouvoir la consommation de masse, un facteur clé de la crise environnementale. Dans le même temps, nombre de ses dirigeants milliardaires ont une empreinte carbone des milliers de fois supérieure à celle des consommateurs moyens des pays du Nord.

Les réformateurs du numérique partent du principe que les grandes entreprises technologiques peuvent être découplées des émissions de carbone et de la surconsommation de ressources et, par conséquent, ils concentrent leur attention sur les activités et les émissions particulières de chaque entreprise. Pourtant, la notion de “découplage” de la croissance de l’utilisation des ressources matérielles a été remise en question par les universitaires, qui notent que l’utilisation des ressources suit de près la croissance du PIB à travers l’histoire. Des chercheurs ont récemment constaté que le transfert de l’activité économique vers les services, y compris les industries à forte intensité de connaissances, n’a qu’un potentiel limité de réduction des impacts environnementaux mondiaux en raison de l’augmentation des niveaux de consommation des ménages par les travailleur⋅se⋅s des services.

En résumé, les limites de la croissance changent tout. Si le capitalisme n’est pas écologiquement soutenable, les politiques numériques doivent tenir compte de cette réalité brutale et difficile.

Le socialisme numérique et ses composantes

Dans un système socialiste, la propriété est détenue en commun. Les moyens de production sont directement contrôlés par les travailleur⋅se⋅s eux-mêmes par le biais de coopératives de travailleur⋅se⋅s, et la production est destinée à l’utilisation et aux besoins plutôt qu’à l’échange, au profit et à l’accumulation. Le rôle de l’État est contesté parmi les socialistes, certains soutenant que la gouvernance et la production économique devraient être aussi décentralisées que possible, tandis que d’autres plaident pour un plus grand degré de planification de l’État.

Ces mêmes principes, stratégies et tactiques s’appliquent à l’économie numérique. Un système de socialisme numérique éliminerait progressivement la propriété intellectuelle, socialiserait les moyens de calcul, démocratiserait les données et l’intelligence numérique et confierait le développement et la maintenance de l’écosystème numérique à des communautés du domaine public.

Bon nombre des éléments constitutifs d’une économie numérique socialiste existent déjà. Les logiciels libres et open source (FOSS5) et les licences Creative Commons, par exemple, fournissent les logiciels et les licences nécessaires à un mode de production socialiste. Comme le note James Muldoon dans Platform Socialism, des projets urbains comme DECODE (DEcentralised Citizen-owned Data Ecosystems) fournissent des outils d’intérêt public open source pour des activités communautaires où les citoyens peuvent accéder et contribuer aux données, des niveaux de pollution de l’air aux pétitions en ligne et aux réseaux sociaux de quartier, tout en gardant le contrôle sur les données partagées. Les coopératives de plates-formes, telles que la plate-forme de livraison de nourriture Wings à Londres6, fournissent un modèle de milieu de travail remarquable dans lequel les travailleur⋅se⋅s organisent leur travail par le biais de plates-formes open source détenues et contrôlées collectivement par les travailleur⋅se⋅s eux-mêmes. Il existe également une alternative socialiste aux médias sociaux dans le Fédivers7, un ensemble de réseaux sociaux qui interagissent en utilisant des protocoles partagés, qui facilitent la décentralisation des communications sociales en ligne.

Mais ces éléments de base auraient besoin d’un changement de politique pour se développer. Des projets comme le Fédivers, par exemple, ne sont pas en mesure de s’intégrer à des systèmes fermés ou de rivaliser avec les ressources massives et concentrées d’entreprises comme Facebook. Un ensemble de changements politiques radicaux serait donc nécessaire pour obliger les grands réseaux de médias sociaux à s’interopérer, à se décentraliser en interne, à ouvrir leur propriété intellectuelle (par exemple, les logiciels propriétaires), à mettre fin à la publicité forcée (publicité à laquelle les gens sont soumis en échange de services “gratuits”), à subventionner l’hébergement des données afin que les individus et les communautés – et non l’État ou les entreprises privées – puissent posséder et contrôler les réseaux et assurer la modération du contenu. Cela aurait pour effet d’étouffer les géants de la technologie.

La socialisation de l’infrastructure devrait également être équilibrée par de solides garanties pour la vie privée, des restrictions sur la surveillance de l’État et le recul de l’État sécuritaire carcéral. Actuellement, l’État exploite la technologie numérique à des fins coercitives, souvent en partenariat avec le secteur privé. Les populations immigrées et les personnes en déplacement sont fortement ciblées par un ensemble de caméras, d’avions, de capteurs de mouvements, de drones, de vidéosurveillance et d’éléments biométriques. Les enregistrements et les données des capteurs sont de plus en plus centralisés par l’État dans des centres de recoupement [des données] et des centres de criminalité en temps réel pour surveiller, prévoir et contrôler les communautés. Les communautés marginalisées et racisées ainsi que les militant⋅e⋅s sont ciblés de manière disproportionnée par l’État de surveillance high-tech. Ces pratiques doivent être interdites alors que les militant⋅e⋅s s’efforcent de démanteler et d’abolir ces institutions de violence organisée.

L’accord sur les Technologies Numériques

Les grandes entreprises technologiques, la propriété intellectuelle et la propriété privée des moyens de calcul sont profondément ancrées dans la société numérique et ne peuvent être éteintes du jour au lendemain. Ainsi, pour remplacer le capitalisme numérique par un modèle socialiste, nous avons besoin d’une transition planifiée vers le socialisme numérique.

Les écologistes ont proposé de nouveaux “accords” décrivant la transition vers une économie verte. Les propositions réformistes comme le Green New Deal américain et le Green Deal européen fonctionnent dans un cadre capitaliste qui conserve les méfaits du capitalisme, comme la croissance terminale, l’impérialisme et les inégalités structurelles. En revanche, les modèles écosocialistes, tels que le Red Deal de la Nation Rouge, l’Accord de Cochabamba et la Charte de justice climatique d’Afrique du Sud, offrent de meilleures alternatives. Ces propositions reconnaissent les limites de la croissance et intègrent les principes égalitaires nécessaires à une transition juste vers une économie véritablement durable.

Cependant, ni ces accords rouges ni ces accords verts n’intègrent de plans pour l’écosystème numérique, malgré sa pertinence centrale pour l’économie moderne et la durabilité environnementale. À son tour, le mouvement pour la justice numérique a presque entièrement ignoré les propositions de décroissance et la nécessité d’intégrer leur évaluation de l’économie numérique dans un cadre écosocialiste. La justice environnementale et la justice numérique vont de pair, et les deux mouvements doivent s’associer pour atteindre leurs objectifs.

À cet effet, je propose un Accord sur les Technologies Numériques écosocialiste qui incarne les valeurs croisées de l’anti-impérialisme, de la durabilité environnementale, de la justice sociale pour les communautés marginalisées, de l’autonomisation des travailleur⋅se⋅s, du contrôle démocratique et de l’abolition des classes. Voici dix principes pour guider un tel programme :

1. Veiller à ce que l’économie numérique ne dépasse pas les limites sociales et planétaires

Nous sommes confrontés à une réalité : les pays les plus riches du Nord ont déjà émis plus que leur juste part du budget carbone – et cela est également vrai pour l’économie numérique dirigée par les Big Tech qui profite de manière disproportionnée aux pays les plus riches. Il est donc impératif de veiller à ce que l’économie numérique ne dépasse pas les limites sociales et planétaires. Nous devrions établir une limite scientifiquement informée sur la quantité et les types de matériaux qui peuvent être utilisés et des décisions pourraient être prises sur les ressources matérielles (par exemple, la biomasse, les minéraux, les vecteurs d’énergie fossile, les minerais métalliques) qui devraient être consacrées à tel ou tel usage (par exemple, de nouveaux bâtiments, des routes, de l’électronique, etc.) en telle ou telle quantité pour telle ou telle personne. On pourrait établir des dettes écologiques qui imposent des politiques de redistribution du Nord au Sud, des riches aux pauvres.

2. Supprimer progressivement la propriété intellectuelle

La propriété intellectuelle, notamment sous la forme de droits d’auteur et de brevets, donne aux entreprises le contrôle des connaissances, de la culture et du code qui détermine le fonctionnement des applications et des services, ce qui leur permet de maximiser l’engagement des utilisateurs, de privatiser l’innovation et d’extraire des données et des rentes. L’économiste Dean Baker estime que les rentes de propriété intellectuelle coûtent aux consommateurs 1 000 milliards de dollars supplémentaires par an par rapport à ce qui pourrait être obtenu sur un “marché libre” sans brevets ni monopoles de droits d’auteur. L’élimination progressive de la propriété intellectuelle au profit d’un modèle de partage des connaissances basé sur les biens communs permettrait de réduire les prix, d’élargir l’accès à l’éducation et de l’améliorer pour tous, et fonctionnerait comme une forme de redistribution des richesses et de réparation pour le Sud.

3. Socialiser l’infrastructure physique

Les infrastructures physiques telles que les fermes de serveurs cloud, les tours de téléphonie mobile, les réseaux de fibres optiques et les câbles sous-marins transocéaniques profitent à ceux qui les possèdent. Il existe des initiatives de fournisseurs d’accès à internet gérés par les communautés et des réseaux maillés sans fil qui peuvent aider à placer ces services entre les mains des communautés. Certaines infrastructures, comme les câbles sous-marins, pourraient être entretenues par un consortium international qui les construirait et les entretiendrait au prix coûtant pour le bien public plutôt que pour le profit.

4. Remplacer les investissements privés de production par des subventions et une production publiques.

La coopérative numérique britannique de Dan Hind est peut-être la proposition la plus détaillée sur la façon dont un modèle socialiste de production pourrait fonctionner dans le contexte actuel. Selon ce programme, “les institutions du secteur public, y compris le gouvernement local, régional et national, fourniront des lieux où les citoyens et les groupes plus ou moins cohésifs peuvent se rassembler et sécuriser une revendication politique.” Améliorée par des données ouvertes, des algorithmes transparents, des logiciels et des plateformes à code source ouvert et mise en œuvre par une planification participative démocratique, une telle transformation faciliterait l’investissement, le développement et la maintenance de l’écosystème numérique et de l’économie au sens large.

Si Hind envisage de déployer ce système sous la forme d’un service public dans un seul pays – en concurrence avec le secteur privé -, il pourrait à la place constituer une base préliminaire pour la socialisation complète de la technologie. En outre, il pourrait être élargi pour inclure un cadre de justice globale qui fournit des infrastructures en guise de réparations au Sud, de la même manière que les initiatives de justice climatique font pression sur les pays riches pour qu’ils aident le Sud à remplacer les combustibles fossiles par des énergies vertes.

5. Décentraliser Internet

Les socialistes prônent depuis longtemps la décentralisation de la richesse, du pouvoir et de la gouvernance entre les mains des travailleur⋅se⋅s et des communautés. Des projets comme FreedomBox8 proposent des logiciels libres et gratuits pour alimenter des serveurs personnels peu coûteux qui peuvent collectivement héberger et acheminer des données pour des services comme le courrier électronique, les calendriers, les applications de chat, les réseaux sociaux, etc. D’autres projets comme Solid permettent aux gens d’héberger leurs données dans des “pods” qu’ils contrôlent. Les fournisseurs d’applications, les réseaux de médias sociaux et d’autres services peuvent alors accéder aux données à des conditions acceptables pour les utilisateurs, qui conservent le contrôle de leurs données. Ces modèles pourraient être étendus pour aider à décentraliser l’internet sur une base socialiste.

6. Socialiser les plateformes

Les plateformes Internet comme Uber, Amazon et Facebook centralisent la propriété et le contrôle en tant qu’intermédiaires privés qui s’interposent entre les utilisateurs de leurs plateformes. Des projets comme le Fédivers et LibreSocial fournissent un modèle d’interopérabilité qui pourrait potentiellement s’étendre au-delà des réseaux sociaux. Les services qui ne peuvent pas simplement s’interopérer pourraient être socialisés et exploités au prix coûtant pour le bien public plutôt que pour le profit et la croissance.

7. Socialiser l’intelligence numérique et les données

Les données et l’intelligence numérique qui en découle sont une source majeure de richesse et de pouvoir économique. La socialisation des données permettrait au contraire d’intégrer des valeurs et des pratiques de respect de la vie privée, de sécurité, de transparence et de prise de décision démocratique dans la manière dont les données sont collectées, stockées et utilisées. Elle pourrait s’appuyer sur des modèles tels que le projet DECODE à Barcelone et à Amsterdam.

8. Interdire la publicité forcée et le consumérisme des plateformes

La publicité numérique diffuse un flux constant de propagande d’entreprise conçue pour manipuler le public et stimuler la consommation. De nombreux services “gratuits” sont alimentés par des publicités, ce qui stimule encore plus le consumérisme au moment même où il met la planète en danger. Des plateformes comme Google Search et Amazon sont construites pour maximiser la consommation, en ignorant les limites écologiques. Au lieu de la publicité forcée, les informations sur les produits et services pourraient être hébergées dans des répertoires, auxquels on accèderait de manière volontaire.

9. Remplacer l’armée, la police, les prisons et les appareils de sécurité nationale par des services de sûreté et de sécurité gérés par les communautés.

La technologie numérique a augmenté le pouvoir de la police, de l’armée, des prisons et des agences de renseignement. Certaines technologies, comme les armes autonomes, devraient être interdites, car elles n’ont aucune utilité pratique au-delà de la violence. D’autres technologies basées sur l’IA, dont on peut soutenir qu’elles ont des applications socialement bénéfiques, devraient être étroitement réglementées, en adoptant une approche conservatrice pour limiter leur présence dans la société. Les militant⋅e⋅s qui font pression pour réduire la surveillance de masse de l’État devraient se joindre à ceux qui militent pour l’abolition de la police, des prisons, de la sécurité nationale et du militarisme, en plus des personnes visées par ces institutions.

10. Mettre fin à la fracture numérique

La fracture numérique fait généralement référence à l’inégalité d’accès individuel aux ressources numériques telles que les appareils et les données informatiques, mais elle devrait également englober la manière dont les infrastructures numériques, telles que les fermes de serveurs cloud et les installations de recherche de haute technologie, sont détenues et dominées par les pays riches et leurs entreprises. En tant que forme de redistribution des richesses, le capital pourrait être redistribué par le biais de la fiscalité et d’un processus de réparation afin de subventionner les appareils personnels et la connectivité Internet pour les pauvres du monde entier et de fournir des infrastructures, telles que l’infrastructure cloud et les installations de recherche de haute technologie, aux populations qui ne peuvent pas se les offrir.

Comment faire du socialisme numérique une réalité

Des changements radicaux sont nécessaires, mais il y a un grand écart entre ce qui doit être fait et où nous sommes aujourd’hui. Néanmoins, nous pouvons et devons prendre certaines mesures essentielles.

Tout d’abord, il est essentiel de sensibiliser, de promouvoir l’éducation et d’échanger des idées au sein des communautés et entre elles afin qu’ensemble nous puissions co-créer un nouveau cadre pour l’économie numérique. Pour ce faire, une critique claire du capitalisme et du colonialisme numériques est nécessaire.

Un tel changement sera difficile à mettre en place si la production concentrée de connaissances reste intacte. Les universités d’élite, les sociétés de médias, les groupes de réflexion, les ONG et les chercheurs des grandes entreprises technologiques du Nord dominent la conversation et fixent l’ordre du jour de la correction du capitalisme, limitant et restreignant les paramètres de cette conversation. Nous devons prendre des mesures pour leur ôter leur pouvoir, par exemple en abolissant le système de classement des universités, en démocratisant la salle de classe et en mettant fin au financement des entreprises, des philanthropes et des grandes fondations. Les initiatives visant à décoloniser l’éducation – comme le récent mouvement de protestation étudiant #FeesMustFall en Afrique du Sud et la Endowment Justice Coalition à l’université de Yale – sont des exemples des mouvements qui seront nécessaires9.

Deuxièmement, nous devons connecter les mouvements de justice numérique avec d’autres mouvements de justice sociale, raciale et environnementale. Les militant⋅e⋅s des droits numériques devraient travailler avec les écologistes, les abolitionnistes, les défenseurs de la justice alimentaire, les féministes et autres. Une partie de ce travail est déjà en cours – par exemple, la campagne #NoTechForIce menée par Mijente, un réseau de base dirigé par des migrants, remet en question l’utilisation de la technologie pour contrôler l’immigration aux États-Unis – mais il reste encore beaucoup à faire, notamment en ce qui concerne l’environnement.

Troisièmement, nous devons intensifier l’action directe et l’agitation contre les Big Tech et l’empire américain. Il est parfois difficile de mobiliser un soutien derrière des sujets apparemment ésotériques, comme l’ouverture d’un centre de cloud computing dans le Sud (par exemple en Malaisie) ou l’imposition de logiciels des Big Tech dans les écoles (par exemple en Afrique du Sud). Cela est particulièrement difficile dans le Sud, où les gens doivent donner la priorité à l’accès à la nourriture, à l’eau, au logement, à l’électricité, aux soins de santé et aux emplois. Cependant, la résistance réussie à des développements tels que Free Basics de Facebook en Inde et la construction du siège d’Amazon sur des terres indigènes sacrées au Cap, en Afrique du Sud, montrent la possibilité et le potentiel de l’opposition civique.

Ces énergies militantes pourraient aller plus loin et adopter les tactiques de boycott, désinvestissement et sanctions (BDS), que les militant⋅e⋅s anti-apartheid ont utilisées pour cibler les sociétés informatiques vendant des équipements au gouvernement d’apartheid en Afrique du Sud. Les militant⋅e⋅s pourraient créer un mouvement #BigTechBDS, qui ciblerait cette fois l’existence des grandes entreprises technologiques. Les boycotts pourraient annuler les contrats du secteur public avec les géants de la technologie et les remplacer par des solutions socialistes de technologies du peuple10. Des campagnes de désinvestissement pourraient forcer des institutions comme les universités à se désinvestir des pires entreprises technologiques. Et les militant⋅e⋅s pourraient faire pression sur les États pour qu’ils appliquent des sanctions ciblées aux entreprises technologiques américaines, chinoises et d’autres pays.

Quatrièmement, nous devons œuvrer à la création de coopératives de travailleur⋅se⋅s de la tech11 qui peuvent être les éléments constitutifs d’une nouvelle économie socialiste numérique. Il existe un mouvement de syndicalisation des grandes entreprises technologiques, qui peut contribuer à protéger les travailleur⋅se⋅s de la technologie en cours de route. Mais syndiquer les entreprises des Big Tech revient à syndiquer les compagnies des Indes orientales, le fabricant d’armes Raytheon, Goldman Sachs ou Shell – ce n’est pas de la justice sociale et cela n’apportera probablement que de légères réformes. De même que les militant⋅e⋅s sud-africain⋅e⋅s de la lutte contre l’apartheid ont rejeté les principes de Sullivan – un ensemble de règles et de réformes en matière de responsabilité sociale des entreprises qui permettaient aux entreprises américaines de continuer à faire des bénéfices dans l’Afrique du Sud de l’apartheid – et d’autres réformes légères, en faveur de l’étranglement du système de l’apartheid, nous devrions avoir pour objectif d’abolir complètement les Big Tech et le système du capitalisme numérique. Et cela nécessitera de construire des alternatives, de s’engager avec les travailleur⋅se⋅s de la tech, non pas pour réformer l’irréformable, mais pour aider à élaborer une transition juste pour l’industrie.

Enfin, les personnes de tous horizons devraient travailler en collaboration avec les professionnels de la technologie pour élaborer le plan concret qui constituerait un Accord des Technologies Numériques. Ce projet doit être pris aussi au sérieux que les “accords” verts actuels pour l’environnement. Avec un Accord des Technologies Numériques, certains travailleur⋅se⋅s – comme ceux du secteur de la publicité – perdraient leur emploi, il faudrait donc prévoir une transition équitable pour les travailleur⋅se⋅s de ces secteurs. Les travailleur⋅se⋅s, les scientifiques, les ingénieur⋅e⋅s, les sociologues, les avocat⋅e⋅s, les éducateur⋅ice⋅s, les militant⋅e⋅s et le grand public pourraient réfléchir ensemble à la manière de rendre cette transition pratique.

Aujourd’hui, le capitalisme progressiste est largement considéré comme la solution la plus pratique à la montée en puissance des Big Tech. Pourtant, ces mêmes progressistes n’ont pas su reconnaître les méfaits structurels du capitalisme, la colonisation technologique menée par les États-Unis et l’impératif de décroissance. Nous ne pouvons pas brûler les murs de notre maison pour nous garder au chaud. La seule solution pratique est de faire ce qui est nécessaire pour nous empêcher de détruire notre seule et unique maison – et cela doit intégrer l’économie numérique. Le socialisme numérique, concrétisé par un Accord des Technologies Numériques, offre le meilleur espoir dans le court laps de temps dont nous disposons pour un changement radical, mais il devra être discuté, débattu et construit. J’espère que cet article pourra inviter les lecteur⋅ice⋅s et d’autres personnes à collaborer dans cette direction.

Sur l’auteur

Michael Kwet a obtenu son doctorat en sociologie à l’université de Rhodes et il est membre invité du projet de société de l’information à la Yale Law School. Il est l’auteur de Digital colonialism : US empire and the new imperialism in the Global South, hôte du podcast Tech Empire, et a été publié par VICE News, The Intercept, The New York Times, Al Jazeera et Counterpunch.

Retrouvez Micheal sur Twitter : @Michael_Kwet.

Sur la traduction

Ce texte a été d’abord traduit avec Deepl, et ensuite revu, corrigé et commenté par moi-même. N’étant pas un traducteur professionnel, j’accueillerai avec plaisir les propositions d’amélioration.

Illustration à la une par Zoran Svilar

 




Retour sur le Contribatelier « Accessibilité numérique » organisé lors de la Journée Mondiale des Mobilités et de l’Accessibilité

Le 30 avril 2022, à l’occasion de la Journée Mondiale des Mobilités et de l’Accessibilité, deux structures membres du collectif CHATONS, Alsace Réseau Neutre et Le Cloud Girofle, ainsi que le hackerspace associatif strasbourgeois Hackstub, se sont mobilisées pour organiser simultanément un Contribatelier sur l’Accessibilité numérique à Strasbourg et Villebon-sur-Yvette (91). Nous leur laissons le clavier pour nous partager un compte-rendu de cette action et des pistes envisagées pour la suite.

logo contribateliers accessibilité numérique

À cette occasion, une douzaine de tests ont été menés sur des logiciels libres, dont la plupart sont proposés comme services en ligne par des membres du collectif CHATONS. Les audits consistaient en des tests d’usage réalisés par binômes, composés d’une personne malvoyante en charge du test et d’une personne voyante en charge de sa captation. L’objectif de ces tests utilisateurices fut double : permettre aux personnes qui créent ou hébergent ces solutions de prendre conscience des problèmes et des solutions possibles, et identifier les éventuels services accessibles sur https://entraide.chatons.org et https://chatons.org.

Cet article est l’occasion de détailler comment les tests se sont passés et de mettre en avant les principaux soucis et perspectives liés à l’accessibilité des services libres, dans l’optique de structurer un groupe parlant d’accessibilité au sein du collectif.

Comptes-rendus des sessions

CR du contribatelier animé par ARN et Hackstub à la médiathèque Neudorf de Strasbourg

Avec :

  • Irina (organisatrice et participante), utilisatrice expérimentée d’outils libres et contributrice, membre d’Alsace Réseau Neutre, atteinte de déficience visuelle
  • Gabriel (participant), président de C’Cité (Fédération des Aveugles Alsace Lorraine Grand Est), à l’aise avec le numérique au quotidien, atteint de déficience visuelle proche du stade aveugle
  • Sylvain (participant), ingénieur logiciel
  • Valentin (organisateur et participant), ingénieur libriste militant, gérant de ReflexLibre, membre d’Alsace Réseau Neutre et contributeur de YunoHost
  • Marjorie (organisatrice et participante), graphiste, artiste et programmeuse libriste, membre d’Hackstub et du collectif cyberféministe Hacqueen

Avec le soutien également d’Éric et Thomas qui sont passés nous voir. Éric est graphiste et programmeur libriste, membre d’ARN, et Thomas est un usager régulier du hackerspace Hackstub qui s’intéresse à l’informatique, au Libre, et à leurs enjeux.

14 tests ont été effectués sur 13 logiciels en deux demi-journées. Nous avons été surprises et surpris du nombre de tests qui ont pu être conduits en si peu de temps, avec très peu de personnes testeuses. Parmi les possibilités de tests, nous n’avons pas sélectionné les outils collaboratifs car nous redoutions une faible accessibilité de ces outils : écrire dans un document collaboratif en ligne prive généralement la personne déficiente visuelle des raccourcis de son outil d’assistance. Les résultats sont mitigés : sur 14 tests, 8 se sont soldés par un succès et 6 ont posé problème (deux réussites partielles et 4 échecs). Les services qui ont posé le plus de problèmes sont les outils de sondage. Certains des tests partiellement réussis ont nécessité une assistance, due à des défauts d’accessibilité non liés à l’outil testé. Exemple : lors du test de Mumble, un logiciel d’audioconférence libre, l’activation du micro a été ardue. Il y avait donc des problèmes liés davantage aux fonctionnalités du navigateur ou à d’autres paramètres (configuration des outils d’assistance ou des interfaces).

Un autre constat intéressant à faire est que les tests ont été effectués avec un système d’exploitation et un navigateur propriétaire (OS Windows + navigateur Edge ou Chrome). L’outil d’assistance était quant à lui libre (NVDA). On peut s’interroger sur le rapport entre le taux de réussite et l’utilisation d’outils qui ne sont pas libres : y a-t-il plus de moyens injectés pour l’accessibilité dans les outils propriétaires ?

Pour ce qui est de l’ambiance, nous avons apprécié l’accueil de la médiathèque Neudorf avec laquelle il a été facile de travailler dans une dynamique de coopération. Gabriel nous a également fait part de son enthousiasme quant à la convivialité de l’événement, malgré le peu de participation. Ce faible taux de participation, tant du côté des personnes malvoyantes que des personnes développeuses, nous a questionné sur les liens que nous entretenons avec les associations et publics déficients visuels, et nous a démontré qu’il y avait un vrai travail de sensibilisation à mener auprès de la communauté libriste. Il a toutefois permis un cadre assez intimiste, favorisant l’attention portée aux personnes participantes.

CR du contribatelier animé par Le cloud de Girofle à Villebon-sur-Yvette (91)

Avec :

  • Nicolas (participant), informaticien de métier atteint d’une déficience visuelle dégénérescente
  • Agathe (participante), libriste expérimentée et vidéaste à ses heures perdues
  • Maxime (organisateur et participant), membre du Cloud Girofle, libriste militant
  • Margaux (organisatrice et participante), membre du Cloud Girofle

Nous nous sommes retrouvés à 4 à la MJC Bobby Lapointe de Villebon-sur-Yvette (91), gentiment mise à disposition par Charles, également membre du Cloud Girofle. Avec l’aide d’Agathe, libriste et vidéaste à ses heures perdues, nous avons accueilli Nicolas, « informaticien d’avant Windows ! » atteint d’une déficience visuelle dégénérescente. Son ordinateur tourne sous Debian et le passage à la ligne de commande a été plus aisé pour lui quand sa vue a commencé à se détériorer. Il utilise encore des outils visuels, des fonctionnalités intégrées au gestionnaire de fenêtres Compiz comme le zoom et l’inversion de contraste. Mais il utilise de plus en plus les outils vocaux, qui représentent environ 80 % de son usage : le lecteur d’écran libre Orca et la synthèse vocale propriétaire Baratinoo, en attendant de trouver une synthèse vocale libre, en français, de qualité suffisante. Par ailleurs, Nicolas utilise EMACS, un éditeur de texte libre navigable intégralement au clavier développé par Richard Stallman, qui dispose de son propre lecteur d’écran (dans ces cas-là, il coupe Orca, qui est le lecteur d’écran pour systèmes GNU Linux). Il l’utilise beaucoup parce que c’est très adapté à son usage, mais ce n’est malheureusement pas toujours possible : en effet, le navigateur EWW intégré dans cet outil n’interprète pas le Javascript, un langage qui est aujourd’hui massivement présent sur le web !

Le cadre intimiste nous a permis d’échanger de manière très qualitative, et nous nous sommes concentrés sur Nicolas toute l’après-midi. Il nous aura fallu vivre cet atelier pour prendre conscience de la difficulté (pour être honnête, de la quasi-impossibilité) d’utiliser beaucoup de services libres en ligne quand on est déficient⋅e visuel⋅le (malvoyant⋅e, non-voyant⋅e).

Une dizaine de tests filmés ont été effectués par Nicolas, sans assistance extérieure, sur des services proposés par le Cloud Girofle : créer un compte sur Nextcloud, accéder à un espace de discussion Mattermost, lire un document OnlyOffice partagé par email, etc. Un protocole de test et des scénarios de tests avaient été préparé en amont et étaient mis à disposition. Les captations rendent compte de ce qui se passe sur l’écran et de la synthèse vocale.

Navigation sur Nextcloud lors du Contribatelier
Navigation sur Nextcloud lors du Contribatelier : l’utilisateur doit utiliser un niveau de zoom très élevé, en plus d’une synthèse vocale (enregistrée par l’enregistreur visible à droite).

Conclusion : c’est pas glorieux

Alors, les logiciels des CHATONS, c’est accessible comment ? Pour nous, les résultats sont édifiants (et décevants). La quasi-totalité des missions a échoué du côté de Villebon-sur-Yvette et le taux de réussite à Strasbourg ne dépasse pas 50%. Les tests qui ont rencontré le plus de succès ont été menés avec du matériel et des outils propriétaires (à l’exception du logiciel d’assistance), et il s’agissait aussi des manœuvres les plus simples.

Quelques exemples :

  • un test consistant à se créer un compte Nextcloud en recevant une invitation par email a pris une demi-heure (et nous parlons d’un test réalisé par un informaticien) !
  • un autre test sur le service Framadate (outil de planification de date) ne propose pas « oui/non/peut-être » comme réponses, mais « chaussure de ski » et « drapeau dans un trou » !
  • toujours sur Framadate, un autre testeur nous indique que la seule manière qu’il a trouvé de l’utiliser est de copier-coller les options dans un tableur, de le remplir, puis de reporter les options dans le tableau en ligne. Une gageure !

Et lors d’un test pour éditer un document en ligne (OnlyOffice) partagé avec Nextcloud, on se rend compte que le bouton pour ouvrir le document n’est pas accessible à la navigation au clavier, que même si on pose le curseur dessus, les options pour l’ouvrir ne sont pas lues par la synthèse vocale et que même si le document est ouvert, la synthèse vocale ne lit pas le document. On découvre ainsi que, même s’il y a un plugin de synthèse vocale installé dans OnlyOffice, le menu pour y accéder n’est pas accessible et que même si on clique sur ce bouton, la synthèse vocale ne fonctionne pas.

À chaque fois, la tentation d’abandonner est forte : impossible de savoir si la fonction qu’on essaye d’utiliser va réussir, ou si l’on va échouer pour une raison parfois bête (un bouton sans label, un message d’erreur qui s’affiche mais qui n’est pas lu). Assister en direct aux difficultés rencontrées par une personne malvoyante sur un ordinateur est une expérience édifiante. Nous pensons que tout le monde devrait la faire au moins une fois, pour se rendre compte des enjeux associés à l’accessibilité numérique.

écran présentant un zoom sur un client mail lors du Contribatelier
Lecture d’un mail lors du Contribatelier : l’utilisateur doit utiliser un niveau de zoom très élevé, en plus d’une synthèse vocale (enregistrée par l’enregistreur visible à droite).

Bilan et perspectives

Le contribatelier, un outil de sensibilisation à l’accessibilité

Participer à ce contribatelier a été très éclairant à la fois sur l’urgence de la situation des personnes déficientes visuelles (beaucoup de services restent bloquants, et pour certains sur des points assez élémentaires), et sur ce qu’implique concrètement la manipulation d’outils d’assistance tels que les lecteurs d’écran. On se sent plus outillé et plus armé pour défendre ce grand sujet. C’est un format idéal pour provoquer une prise de conscience auprès de personnes non initiées, qui a le double avantage de sensibiliser tout en étant dans le “faire” (en l’occurrence, contribuer au libre). Les expériences ont globalement été appréciées de toustes les participantes. Que ce soit du point de vue de l’accueil ou du travail réalisé, ces séances ont offert un cadre convivial, surtout en petits groupes.

Le point sur les difficultés rencontrées

Nous nous sommes interrogés sur le degré d’intervention des personnes qui ne sont pas en situation de handicap lors d’un blocage pendant un test. Nous avons conclu de cet échange qu’il valait mieux laisser du temps pour dénouer la situation avant d’intervenir, afin de véritablement éprouver l’accessibilité de l’outil, mais que si on se retrouvait face à une impasse, il fallait accompagner la résolution du problème rencontré.

Si la personne déficiente visuelle ne prend pas aisément le service en main, il y a différents types d’échec :

  • celui où elle devra d’abord explorer l’interface pour la comprendre et consulter la documentation ;
  • celui où des astuces/manipulations lui sont indiquées par une autre personne ;
  • celui où elle ne pourra jamais accéder au service par ses propres moyens.

Côté développement, on peut aussi distinguer différents cas :

  • celui où il suffirait de corriger quelques détails ;
  • celui où les modifications sont complexes mais le service partiellement utilisable ;
  • celui où il faudrait quasiment tout revoir.

On découvre ainsi plusieurs catégories de problèmes :

  • des problèmes de conception : pages web trop complexes (comment s’y retrouver quand des centaines d’informations non hiérarchisées – il n’y a pas de couleurs en synthèse vocale – sont lues ?), notifications non accessibles ou synthèse vocale indisponible dans certains environnements (canevas notamment) ;
  • des erreurs d’implémentation : boutons sans label, titres des vidéos qui ne sont pas indiqués, parties du logiciel non navigables au clavier ;
  • des problèmes de version : avec la course aux fonctionnalités, les navigateurs web un peu anciens sont de moins en moins supportés. Or ce sont souvent ces navigateurs qui équipent les systèmes adaptés aux non-voyant⋅es. Choisir de ne pas les prendre en compte, c’est se priver de certain⋅es utilisateurices qui utilisent des systèmes spécifiques, pour lesquels les mises à jour sont parfois compliquées.

De manière générale, bien qu’une bonne moitié des interfaces graphiques des logiciels « en dur » sont inutilisables ou difficilement utilisables, elles restent mieux gérées par la synthèse vocale que dans les applications web, qui sont d’expérience peu accessibles. Les standards d’accessibilité sont peu respectés et la conception de pages complexes rend la lecture des pages plus difficile encore.

Par ailleurs, alors qu’aujourd’hui la majorité des personnes utilisent un très petit nombre de navigateurs web (Firefox, Chrome et Safari, qui se partagent la majorité du marché et concentrent toute l’attention des personnes développeuses), les personnes déficientes visuelles utilisent parfois d’autres navigateurs (Edge, Lynx, etc.), en plus de matériels d’assistance variés. Suivant les profils, on peut trouver des plages ou afficheurs braille, de la vocalisation, des outils visuels (zoom, couleurs, contraste), etc. Certains logiciels d’assistance définissent leurs propres raccourcis clavier, qui peuvent entrer en conflit avec les raccourcis natifs du système ou ceux d’autres programmes. L’interopérabilité de tous ces équipements n’est donc pas triviale.

personne utilisant une plage braille
Un lecteur braille – Photo by Sigmund on Unsplash

 

Il y a également un autre paradoxe : la plupart des logiciels libres populaires dédient une partie de leur documentation à l’accessibilité, chacun expliquant comment les logiciels sont accessibles. Nous reconnaissons les efforts faits pour améliorer la situation, pourtant, en regardant les cas de OnlyOffice et de Mattermost, nous regrettons :

  • que ces pages ne soient pas plus mises en avant, par exemple au moment de se connecter au logiciel, et pas seulement en faisant une recherche sur le site de l’entreprise qui développe le logiciel ;
  • que les informations fournies dans ces pages soient parfois incomplètes, par exemple en ne précisant pas les limitations induites par le mode lecture ;
  • que ces procédures ne fonctionnent souvent pas ! Mattermost peut se naviguer au clavier, mais sur la version de Firefox utilisée par un de nos testeurs, celle-ci ne fonctionne pas. Autre exemple : le plugin de synthèse vocale d’OnlyOffice ne peut pas être activé facilement, et nécessite une configuration administrateur qui n’est pas faite par défaut.

Une personne dans le groupe strasbourgeois a rencontré des difficultés liées au verrouillage de son système, configuré par une entreprise qui fournit des systèmes adaptés aux personnes déficientes visuelles. Cette dernière n’installe que des versions de logiciels dont l’accessibilité a été évaluée, et parfois légèrement modifiées pour les rendre plus accessibles. L’entreprise dispose donc de son propre dépôt de paquets Debian, et configure les machines de ses clients et clientes pour utiliser ce dépôt en priorité, afin d’éviter qu’iels ne fassent des mises à jour non testées. L’inconvénient de cette méthode “verrouillée” est qu’il est ardu d’accéder aux dernières versions logicielles, faute de mises à jour, qui sont souvent disponibles sur le tard (plusieurs années sont parfois nécessaires). Le principe est pertinent, mais la prudence excessive, ou peut-être le manque de personnel compétent pour le travail d’adaptation, rend l’utilisation d’une machine sous ce système laborieuse. Par ailleurs, ce contrôle à distance du paramétrage peut donner le sentiment d’être dépossédé de sa machine, d’autant plus si la communication sur les changements apportés fait défaut. Il est possible de contourner le verrouillage “à la main”, mais cela demande une certaine aisance en informatique, et lève la garantie d’assistance en cas de soucis. Ainsi, des problèmes sont persistants avec Firefox car la version fournie n’est pas la dernière, ce qui a été bloquant pour mener à bien les tests : la personne est mobilisée pour la résolution du problème plutôt que pour la réalisation des tests. Ça pose la question du processus de développement logiciel : aujourd’hui on fournit des logiciels qui évoluent sans cesse, dont les anciennes versions ne sont pas supportées facilement, voire pas supportées du tout.

Et après ?

Nous souhaitons proposer à nouveaux des contribateliers sur l’accessibilité numérique afin de finir les tests prévus. De plus, nous préparerons d’autres tests à mener, avec comme priorité les services qui répondent à des usages du quotidien (communication, collaboration, sondage, traitement de texte, etc.). Nous envisageons néanmoins des tests sur des outils plus techniques dans un second temps (services proposés par YunoHost par exemple, un système d’exploitation qui facilite l’administration d’un serveur et participe à la démocratisation de l’auto-hébergement).

Par ailleurs, il est intéressant de noter que réaliser plusieurs fois un même test n’est pas futile. Au contraire, cela rend compte des différences rencontrées en fonction des systèmes et configurations, mais aussi selon les handicaps. La diversité des profils est très importante pour les tests. Il faut bien prendre en compte la différence de handicaps et de niveaux de culture numérique.

Nous pensons aussi qu’il serait pertinent de mettre en avant les manipulations qui facilitent la prise en main des outils et logiciels. Il y a parfois des astuces simples, qui s’avèrent très utiles pour contourner les difficultés rencontrées, même s’il est regrettable de devoir presque recourir au hack pour pouvoir utiliser un service.

Beaucoup de documentation à été produite lors de ces ateliers : des vidéos et des notes principalement. Nous entrons désormais dans la phase de restitution de ces tests, nous allons créer et publier des reports de bugs d’accessibilité sur les forges Git des logiciels concernés et les suivre. Deux personnes parmi nous, Irina et Valentin, ont fait deux rapports de bug antérieurement autour de Network Manager et de Mumble. Les protocoles pour soumettre les bugs d’accessibilité peuvent être laborieux, selon leur retour.

Lors de notre débrief, nous nous sommes demandés comment mobiliser davantage sur l’accessibilité numérique, au regard du faible nombre de personnes participantes. Nous aurions en effet souhaité que l’opération se déroule simultanément au sein de multiples structures membres du collectif CHATONS en France, afin de fédérer sur la question, et de lui donner plus de résonance.

Actions envisagées

Nous avons relevé plusieurs type d’action à envisager, en dehors de la reconduite de contribateliers sur le sujet et de la publication de ce communiqué :

  • Faire émerger un groupe “Accessibilité”. Une interstructure Accessibilité a déjà été créée sur la Litière, le wiki des CHATONS. Il serait intéressant de constituer un groupe national de travail, s’étendant à des structures telles que la FFDN, et qui peut-être ne se cantonnerait pas qu’au Libre pour réellement servir l’accessibilité numérique, qui dépend aujourd’hui de beaucoup d’outils propriétaires déployant les moyens.
  • Un atelier sur cette thématique sera proposé lors du camp CHATONS 2022 (18-22 août).
  • Rédiger des rapports de bug à destination des développeur⋅euses de logiciels.
  • Mettre à disposition sur les mails de connexion envoyés par les logiciels un lien vers des page décrivant les raccourcis clavier et options d’accessibilité proposées par le logiciel, ainsi que la liste des fonctions qui sont inopérantes.
  • Mettre plus en évidence l’accessibilité dans les critères pour intégrer le collectif CHATONS.
  • Faire infuser l’accessibilité numérique dans la communauté libriste à travers des ateliers de sensibilisation et d’auto-formation, en organisant des permanences en milieux associatifs rassemblant des publics déficients visuels, en veillant à ce que les formats proposés considèrent l’accessibilité et en parlent, etc.
  • Construire une relation de confiance et créer du lien entre associations de personnes déficientes visuelles et développeuses.
  • Aller chercher des gens plus compétents sur ces questions, et saisir des structures telles que les tiers-lieux numériques, les universités, les milieux étudiants, etc.
  • Compiler et traduire la documentation et les ressources existantes sur l’accessibilité numérique.

Quelques parti-pris non consensuels

L’inaccessibilité numérique renforce la fracture numérique et ne concerne pas que les personnes atteintes d’un handicap visuel mais aussi les personnes éloignées du numérique de manière générale, comme les personnes âgées ou les personnes neurodifférentes. Renforcer l’accessibilité numérique pour les personnes déficientes visuelles renforce aussi l’accessibilité numérique tout court !

L’accessibilité numérique n’est pas un patch, un plugin à ajouter, mais bien une philosophie, une manière de voir les choses qui doit infuser dès la base du développement (on parle d’accessibilité native).

Que choisir : du libre à tout prix, ou l’accessibilité ?

En tant que défenseur⋅euses des logiciels libres, on s’interroge : la liberté numéro zéro, c’est celle d’utiliser le logiciel libre.

Que faire quand une partie de la population se retrouve exclue contre son gré de l’utilisation de logiciels libres ? Voulons-nous des logiciels qui ne libèrent que les développeur⋅euses ou permettent aussi d’autonomiser les utilisateurices ?

Pour aller plus loin :

Résultats des tests d’accessibilité réalisés le 30 avril 2022 par ARN et le Cloud Girofle




Infoclimat : un commun météorologique et climatologique à préserver !

Infoclimat est une association de passionné·es de météo, qui agit pour favoriser et vulgariser l’échange de données et de connaissances autour de la météo et du climat.
Nous baignons dans les mêmes eaux et partageons les mêmes valeurs : les communs culturels doivent être ouverts à toutes et tous pour l’intérêt général !
L’association va fêter ses 20 ans et se lancer dans un nouveau projet : le recrutement de son·sa premier·ère salarié·e. C’est l’occasion de donner la parole à Frédéric Ameye et Sébastien Brana, tous deux bénévoles.

Bonjour Frédéric et Sébastien, pouvez-vous vous présenter ?

Frédéric Ameye (FA), 27 ans, je suis ingénieur dans les systèmes embarqués pendant les heures ouvrables… et en-dehors de ça, je suis depuis longtemps « Linuxien » et (modeste) défenseur du logiciel libre, mais aussi de l’égalité des chances à l’école — issu d’une famille ouvrière très modeste, c’est quelque chose qui me tient beaucoup à cœur. Le reste du temps (quand il en reste), vous me trouverez principalement en rando au fin fond de la montagne…

J’ai intégré l’aventure Infoclimat en 2009 (j’avais alors 15 ans), période à laquelle j’ai « refondu » le site web de l’asso à partir de l’ordinateur familial à écran cathodique, que je monopolisais des dizaines d’heures par semaine, jusqu’à très tard dans la nuit. J’ai continué ce rôle jusqu’à aujourd’hui (avec un écran plat, et moins d’heures dans la nuit car la trentaine arrive vite). Entre-temps, j’ai rejoint le Conseil d’Administration, et je suis ensuite devenu Vice-Président en 2015.

Sébastien Brana (SB), 42 ans. Dans la vie « hors Infoclimat », je suis chef de projet informatique à la Direction générale des finances publiques… et comme Frédéric, en dehors de « ça », j’occupe une grande partie de mon temps libre (soirées, week-end et congés) au profit du site et de l’association que j’ai rejoint en 2005 et dont je suis également Vice-Président depuis 12 ans. Au-delà des phénomènes météo (orages et chutes de neige notamment) qui m’ont toujours fasciné depuis aussi loin que je me souvienne, je suis également passionné par la communauté que nous avons formée depuis une vingtaines d’années, rassemblant des personnes de tous âges (des gamins de 10 ans aux retraités) et de tous milieux, amateurs ou professionnels, scientifiques ou littéraires, ou simplement amoureux de beaux paysages et de photographies. La météo touche tout le monde, les questions liées au climat interrogent tout le monde – bref, ces sujets intéressent voire passionnent bien au-delà des barrières sociales habituelles !

Vous êtes membres bénévoles de Infoclimat, pouvez-vous nous parler du projet de l’association ?

SB : Initialement, Infoclimat était un petit groupe de passionnés de météo et de climat, qui partageaient leurs relevés entre-eux à la fin des années 90, sur un site web appelé « OrageNet ». Tout cela a progressivement grossi, jusqu’à l’année 2003, où l’association a été créée principalement pour subvenir aux besoins d’hébergement du site web. A l’époque, nous étions déjà (et sans le savoir!) en « Web 2.0 » et pratiquions les sciences participatives puisque l’essentiel du contenu était apporté par les passionnés ; nous étions alors bien loin d’imaginer que les problématiques liées au climat deviendraient un enjeu mondial avec une telle résonance médiatique.

Site internet d'Infoclimat entre les années 90 et aujourd'hui
Infoclimat a beaucoup évoluée, entre les débuts sur un internet confidentiel des années 90 dédié au partage, au web d’aujourd’hui.

 

FA : Depuis, l’objet social s’est considérablement diversifié, avec la montée en puissance de notre asso. Aujourd’hui, nous visons trois thématiques particulières :

  • L’engagement citoyen au service de la météo et du climat : partager ses relevés, ses observations météo, installer des stations météorologiques,… au service de tous ! Cela permet de comprendre comment le climat change, mais aussi de déceler des particularités locales que les modèles de prévision ne savent pas bien prendre en compte, ou qui ne peuvent pas être mesurées facilement.
  • Valoriser la donnée météo et climato, qu’elle soit issue de services officiels ou diffusée en « OpenData » par nous ou nos passionnés, et en particulier en faire des outils utiles autant aux « pros » et chercheurs, qu’au service de la vulgarisation des sujets climatiques pour le grand public. Les utilisations sont très nombreuses : agriculture, viabilité hivernale, thermique dans l’habitat, recherches sur le changement climatique, production électrique, journalistes…
  • Former et transmettre les connaissances, par la production de contenus de vulgarisation scientifique, l’organisation de « rencontres météo », ou encore des interventions auprès des écoles, dans des événements sur le terrain ou sur les réseaux sociaux. Bref, contrer la désinformation et le buzz !

 

Installation de matériel météo
Quand Infoclimat débarque quelque part, c’est rarement pour pique-niquer… Mais plutôt pour installer du matériel météo !

 

Vous faites donc des prévisions météo ?

SB : Même si le forum est largement animé par des prévisionnistes amateurs, nous parlons finalement assez peu de prévisions météo : le cœur du site, c’est l’observation météo en temps réel et la climatologie qui résulte des données collectées, qui sont des sujets bien différents ! Il y aurait tant à dire sur le monde de la prévision météo, mais cela mériterait un article à lui seul, car il y a un gros sujet là aussi sur l’ouverture des données et la paternité des algorithmes… Souvent négligée, l’observation météorologique est pourtant fondamentale pour produire une bonne prévision. Pour faire court, la donnée météo « observée » est la nourriture qu’il faut pour entraîner les modèles climatiques, et faire tourner les modèles numériques qui vous diront s’il faut un parapluie demain sur votre pixel de 1km².

Observations météo avec le modèle français AROME
Quantité d’observations météo intégrées dans le modèle de prévisions français « AROME », source principale de toutes les prévisions en France métropolitaine. La performance des modèles météorologiques est fortement corrélée à la quantité, la fréquence, et à la qualité de leurs données d’entrées (observations radar, satellite, avions, stations météo au sol,…). La quantité d’observations des stations Météo-France est à peu près équivalente à la quantité de données produites par les passionnés d’Infoclimat. Graphique simplifié, hors données radar. Avec l’aimable autorisation de Météo-France et du CNRM.

 

FA : Ce qu’il faut savoir, c’est que l’immense majorité des sites internet ou appli que vous consultez ne font pas de prévisions météo, mais utilisent des algorithmes automatisés qui traitent des données fournies (gratuitement ou avec redevance) par les organismes publics (Météo-France, la NOAA, le Met-Office, l’organisme européen ECMWF,…). La qualité des prévisions est en gros corrélée à l’argent que les créateurs des sites et des applis peuvent injecter pour récolter des données brutes de ces modèles numériques. Par exemple, pour avoir les données du modèle de Météo-France « AROME », c’est à peu près gratuit car les données sont sous licence Etalab, mais si vous voulez des données plus complètes, permettant d’affiner vos algorithmes et de proposer « mieux », c’est sur devis.

Dès lors, Infoclimat ne souhaite pas se lancer dans cette surenchère, et propose uniquement des prévisions automatisées issues de données ouvertes de Météo-France et de la NOAA, et indique très clairement la différence entre prévisions automatisées et bulletins rédigés par des passionnés.

Image des "cubes" de données des modèles météo
La Terre est découpée en petits cubes dans lesquels les modèles météo estiment les paramètres de l’atmosphère à venir. Les cubes sont généralement bien plus gros lorsque les échéances sont lointaines (J+4, J+5…), ce qui empêche les modèles météorologiques de discerner les phénomènes météo de petite échelle (averses, orages, neige, effets des reliefs et des côtes). Pourtant, de nombreuses appli météo se contentent de vous fournir grossièrement ces données sans l’explication qui va avec. Chez Infoclimat, on laisse volontairement la résolution native, pour ne pas induire le lecteur en erreur sur la résolution réelle des données.

 

Cela me fait toujours rire (jaune) quand j’entends « [site ou appli] a de meilleures prévisions à chaque fois, et en plus, on les a à 15 jours ! » : lorsqu’il s’agit de prévisions « automatiques », par ville, il est probable qu’il utilise les mêmes données que tous les autres, présentées légèrement différemment, et qu’il s’agisse juste d’un biais de confirmation. Il existe bien sûr quelques exceptions, certaines entreprises faisant un vrai travail de fusion de données, d’analyse, de suppression des biais, pour proposer des informations de très grande qualité, généralement plutôt payantes ou pour les pros. Mais même chez ceux qui vous vendent du service d’aide à la décision, de protection des biens et des personnes, des données expertisées ou à vocation assurantielles, vous seriez très surpris de la piètre qualité de l’exploitation qui est faite de ces données brutes.

Graphique présentant la technique de prévision ensembliste
Les modélisateurs météo ont plein de techniques pour prendre en compte les incertitudes dans les observations et les modèles, notamment ce que l’on appelle la « prévision ensembliste ». Mais ces incertitudes sont rarement présentées ou expliquées au public. Ici par exemple, le graphique présente la quantité de pluie prédite par un modèle météo le 6 janvier, pour la période entre le 6 janvier et le 16 janvier 2022, sur un point de la France. Le modèle considère plusieurs scénarios d’évolution possible des futurs météorologiques. Source : ECMWF, CC BY 4.0.

 

Malheureusement, cette situation rend très délicate la perception des prévisions météo par le grand public (« ils se trompent tout le temps ») : la majorité des applis prend des données gratuites, de faible qualité, sur le monde entier, qui donnent une prévision différente 4 fois par jour au fil des calculs. Cela ne met vraiment pas en valeur le travail des modélisateurs, qui font pourtant un travail formidable, les modèles numériques s’améliorant considérablement, et décrédibilisent aussi les conclusions des organismes de recherche pour le climat (« ils ne savent pas prévoir à 3 jours, pourquoi ils sauraient dans 50 ans ?! »), alors qu’il s’agit surtout d’une exploitation maladroite de données brutes, sans accompagnement dans leur lecture.

Graphique présentant l'amélioration de la qualité des prévisions de l'état de l'atmosphère
Ce graphique présente, grosso-modo, l’amélioration de la qualité des prévisions de l’état de l’atmosphère au fil des années, à diverses échéances de temps (jaune = J+10, vert = J+7, rouge = J+5, bleu = J+3) et selon les hémisphères terrestres. Plus c’est proche de 100%, meilleures sont les prévisions ! Source : ECMWF, CC BY 4.0. 

 

Du coup, quelles actions menez-vous ?

FA : Notre action principale, c’est la fourniture d’une plateforme sur le web, qu’on assimile souvent au « Wikipédia de la météo », ou à un « hub de données » : nous récoltons toutes sortes de données climatiques et météorologiques de par le monde, pour les décoder, les rendre digestes pour différents publics, et la mettre en valeur pour l’analyse du changement climatique. Ce sont par exemple des cartographies, ou des indices d’évolution du climat. C’est notre rôle initial, qui aujourd’hui compile plus de 6 milliards de données météo, à la qualité souvent rigoureusement contrôlée par des passionnés ! Il faut savoir que nous n’intégrons pas toutes les stations météo : nous respectons des normes de qualité du matériel et de l’environnement, pour que les données soient exploitables et comparables entre-elles, comparables avec des séries climatiques historiques, et assimilables dans des modèles numériques de prévision.

 

Infoclimat propose une interface simple et très complète
Infoclimat propose l’accès à toutes les informations météo et climatiques dans des interfaces qui se veulent simples d’accès, mais suffisamment complètes pour les plus experts. Dur équilibre !

 

SB : Avec l’accroissement de notre budget, nous avons pu passer à l’étape supérieure : installer nos propres stations météo, et soutenir les associations locales et les passionnés qui en installent et qui souhaitent mettre leurs données au service d’une base de données commune et libre.

Randonnée pour installer la station météo à Casterino
Les passionnés ne reculent devant rien pour l’intérêt général. Aller installer une station météo à Casterino, village des Alpes Maritimes qui s’est retrouvé isolé de tout après la tempête Alex ? C’est fait, et avec le sourire malgré les kilomètres avec le matériel sur le dos ! Retrouvez l’article ici

 

Il faut savoir que la donnée météo se « monnaye », et chèrement: Météo-France, par exemple, ne met à disposition du grand public que quelques pourcents de ses données, le reste étant soumis à des redevances de plusieurs centaines de milliers d’euros par an (on y reviendra). Ce n’est d’ailleurs pas le cas dans tous les pays du monde, les États-Unis (NOAA) ont été précurseurs, beaucoup de pays Européens s’y mettent, mais la France est un peu en retard… Nous sommes partenaires de Météo-France, participons à des travaux communs dans le cadre du « Conseil Supérieur de la Météorologie », mais c’est très long, trop long, et cela prive Météo-France d’une source de revenus importante dans un contexte de stricte restriction budgétaire. L’établissement public administratif se retrouve en effet pris dans une injonction contradictoire par son autorité de tutelle (le Ministère de la Transition écologique et solidaire) : d’un côté il doit « libérer » les données publiques et mettre en place les infrastructures nécessaires, de l’autre, on lui intime l’ordre de trouver de nouvelles sources de financement par sa branche commerciale, et on lui réduit ses effectifs !

Redevances Météo France
Redevances demandées par Météo-France pour accéder aux données météo de son réseau « RADOME » (90% des stations françaises). Hors de portée de notre association ! Source

 

Données ouvertes météo France et données Infoclimat
Le réseau de stations en France, avec les données ouvertes de Météo-France (à gauche), et avec les données Infoclimat et partenaires en plus (à droite). Remarquez le contraste avec certains autres pays Européens !

 

Aujourd’hui, Infoclimat c’est donc un bon millier de stations météo (les nôtres, celles des passionnés, et de nos associations partenaires), qui complètent les réseaux nationaux dans des zones non couvertes, et qui permettront à l’avenir d’améliorer la fiabilité des modèles météo de Météo-France, dans des travaux que nous menons avec eux sur l’assimilation des réseaux de données partenaires. Parfois d’ailleurs, nous réinstallons des stations météo là où Météo-France est parti ou n’a pas souhaité améliorer ou maintenir des installations, comme au Mont-Ventoux (84), ou à Castérino (06). Et ces données intéressent une multitude d’acteurs, que nous découvrons souvent au hasard des installations : au-delà de l’intérêt pour la météo des particuliers (« combien fait-il au soleil? » « quelle quantité de pluie est tombée la nuit dernière? »), les activités professionnelles météo-sensibles allant de l’agriculture à l’expertise en assurance, en passant par les études de risques et/ou d’impacts jusqu’aux recherches sur les « ICU » (ilots de chaleurs urbains observés dans les milieux urbanisés) se montrent très demandeuses et n’hésitent pas à se tourner vers nous pour leur fournir de la « bonne data-météo ».

Réhabilitation d'une station météo au Mont-Ventoux
Réhabiliter une station météo au sommet du Mont-Ventoux : check. Les données météo sont par ici. 

 

Enfin, le troisième pilier, c’est la pédagogie. Nous avons repris en 2018, à nos frais et sans aucune subvention, l’initiative « Météo à l’École », qui avait été lancée en 2008 par le Ministère de l’Éducation Nationale avec Météo-France et l’Observatoire de Paris, mais qui a failli disparaître faute de budget à la fin du « Grand Emprunt ». L’objectif : sensibiliser de manière ludique les publics du primaire et du secondaire aux enjeux de la météo et du climat. Installer une station météo dans un collège permet de faire un peu de techno, traiter les données en faisant des maths, des stats et de l’informatique, et enfin les analyser pour parler climat et Système Terre.
Aujourd’hui, nous hébergeons les données des quelques 60 stations, ainsi que les contenus pédagogiques de Météo À l’École, permettant aux profs d’échanger entre eux.

Photo : Météo à l'École
Installer des stations météo dans les écoles, expliquer les concepts de la météo et du climat, « jouer » avec des données, et discuter entre profs : c’est ce que permet le programme Météo à l’École

 

Depuis de nombreuses années, nous complétons cela avec des interventions auprès des jeunes et moins jeunes, sous forme d’ateliers ou de journées à thème (« Rencontres Météo et Espace », « Nuit des Chercheurs », « Fête du Vent »,…), un peu partout en France selon la disponibilité de nos bénévoles !

Rencontre Météo et Espace
Lors des Rencontres Météo et Espace organisées par le CNES, Infoclimat et Météo-France, les enfants apprennent par exemple comment on mesure les paramètres en altitude dans l’atmosphère, grâce aux ballons sondes.

 

Photos : évènements tout publics
Nous aimons autant apprendre des choses aux très jeunes (à gauche), qu’aux moins jeunes (à droite), lors d’événements tout-publics.

 

Quelles valeurs défendez-vous ?

FA : La première de nos valeurs, c’est l’intérêt général ! Ce que nous avons conçu au cours de ces vingt dernières années n’appartient à personne, c’est un commun au service de tous, et pour certaines informations, c’est même le point de départ d’un cercle vertueux de réutilisation, par la libération des données en Open-Data.

Page OpenData d'Infoclimat
La page OpenData d’Infoclimat, qui permet de s’abstraire des complexités des formats météo, des différents fournisseurs, et tente de résoudre au mieux la problématique des licences des données.

Comme on l’a dit plus haut, le monde de la météo est un juteux business. Vous trouverez pléthore de sites et applis météo, et leur composante commune, c’est que ce sont des sociétés à but lucratif qui en font un business, sous couvert d’engagement citoyen et de « communauté ». Vous y postez vos données et vos photos, et ils en tirent en retour des revenus publicitaires, quand ils ne revendent pas les données météo à d’autres sociétés (qui les mâchouillent et en font de l’analyse pour d’autres secteurs d’activité).

Parmi les initiatives similaires, on peut citer parmi les plus connues « Weather Underground » (appartenant à IBM et destinée à alimenter Watson) ou encore « Awekas » (Gmbh allemande), « Windy » (société tchèque), « Météociel » (SAS française), qui sont des sociétés privées à plusieurs centaines de milliers ou quelques millions d’euros de CA. On notera d’ailleurs que toutes ces initiatives ont des sites souvent moins complets que le notre !
On se retrouve dans une situation parfois ubuesque : ces types de sociétés peuvent acheter des données payantes à l’établissement public Météo-France (pour quelques centaines de milliers d’euros par an), et les proposent ensuite à tous sur leur site web, rémunéré par la publicité ou par abonnement à des fonctionnalités « premium ». Alors qu’elles pourraient bénéficier à tous dans une base de données librement gérée comme celle d’Infoclimat, et aussi servir nos outils d’analyse du changement climatique ; il faut passer obligatoirement par les sites de ces sociétés privées pour bénéficier des données produites par l’établissement public… et donc en partie avec l’argent public. D’autres acteurs de notre communauté en faisant déjà echo il y a bien des années, et la situation n’a pas changé : https://blog.bacpluszero.com/2014/06/comment-jai-failli-faire-doubler-le.html.

Photo : visite Météo France
Nos adhérents et administrateurs lors d’une visite chez Météo-France, en 2016. Malgré un partenariat depuis 2009, l’établissement public éprouve toujours des difficultés à partager ses données avec la communauté, mais s’engage à ses côtés dans la formation et le support technique. En mémoire de nos bénévoles disparus Pouic, Mich’, Enzo.

 

SB : Notre force, c’est de pouvoir bénéficier d’une totale indépendance, grâce à nos adhérents, mécènes et donateurs. On a réalisé le site dont on a toujours rêvé, pas celui qui générera le plus de trafic possible pour en tirer un revenu. Les données des stations météo que nous finançons sont toutes placées sous licences ouvertes, et nos communications sont rigoureuses et factuelles plutôt que « putaclic » (ce qui nous vaut d’ailleurs une notoriété encore assez limitée chez le grand public, en dehors des photos de nos contributeurs reprises dans les bulletins météo de France TV notamment).

Trouvez-vous aussi votre indépendance vis-à-vis des GAFAM ?

FA : Cela reste encore perfectible : si nous croyons à notre indépendance et au respect des utilisateurs, il y aurait encore des reproches à nous faire. Nous mettons vraiment beaucoup en place pour respecter les données (qu’elles soient météo, personnelles, ou les droits des photographes), nous auto-hébergeons l’immense majorité des contenus (sur 12 serveurs dédiés OVH, du cloud Scaleway, et des machines gracieusement prêtées par Gandi, et même un NAS chez un administrateur fibré !), et essayons d’éviter les services tiers, et les fuyons au possible lorsqu’ils sont hébergés ou contrôlés à l’étranger. Mais tout n’est pas toujours si simple.

Par exemple, nous utilisions jusqu’à très récemment encore Google Analytics, par « simplicité » : tout notre historique depuis 2008 y est stocké, et une instance Matomo assez dimensionnée pour 150M de pages vues par an, ça veut dire gérer une nouvelle machine, et des coûts supplémentaires… pour une utilisation assez marginale, notre exploitation des statistiques étant très basique, puisque pas de publicités et pas de « conversions » ou « cibles d’audience »… Mais tout de même appréciée des bénévoles pour analyser la fréquentation et l’usage des rubriques du site. Il doit aussi traîner quelques polices de caractères hébergées par Google, mais tout le reste est 100% auto-hébergé et/ou « fait maison ».

Complexité des cartes de Infoclimat
Nos cartes sont complexes et nécessitent des données géospatiales de bonne qualité, et à jour. Maintenir à jour une telle base, seuls, et à l’échelle mondiale, est… un projet à lui tout seul.

 

Nous sommes aussi de gros consommateurs de contenus cartographiques, et proposons des interfaces de visualisation mondiales plutôt jolies (basées sur OpenLayers plutôt que GoogleMaps), mais qui nécessitent des extractions de données particulières (juste les villes, un modèle de terrain haute résolution, ou bien juste les rivières ou limites administratives). C’est un sujet qui peut aussi être vite difficile à gérer.
À une époque, on stockait donc une copie partielle de la base de données OpenStreetMap sur l’Europe, et je générais moi-même des carto avec Tilemill / Mapserver / Geowebcache et des styles personnalisés. Les ressources nécessaires pour faire ça étaient immenses (disque et CPU), la complexité technique était grande, et que dire quand il faut tenir toutes ces bases à jour. C’est un projet à lui tout seul, et on ne peut pas toujours réinventer la roue. Bref, pour le moment, nous utilisons les coûteux services de Mapbox.

Vous nous avez parlé de certaines limites dans votre travail bénévole, qu’est-ce qui vous pose problème ?

FA : Le problème majeur, c’est le développement web du site. La majorité de nos outils sont basés sur le site web : cartes, graphiques, statistiques climatiques, espaces d’échange, contenus pédagogiques, tout est numérique. Aujourd’hui, et depuis 13 ans, le développement et la maintenance du site et de ses serveurs repose sur un seul bénévole (moi !). Déjà, ce n’est pas soutenable humainement, mais c’est aussi assez dangereux.
La raison est simple : un logiciel avec 400.000 lignes de code, 12 serveurs, des technologies « compliquées » (formats de fichiers spécifiques à la météo, cartes interactives, milliards d’enregistrements, bases de données de plusieurs téraoctets,…), ce n’est pas à la portée du premier bénévole qui se pointe ! Et il faut aussi beaucoup d’accompagnement, ce qui est difficile à combiner avec la charge de travail existante.

Pour les plus geeks d’entre-vous, concrètement, voici les technos sur lesquelles sont basées nos plateformes : PHP (sans framework ni ORM !), Javascript/jQuery, OpenLayers, Leaflet, Highcharts, Materialize (CSS), pas mal de Python pour le traitement de données météo (Scipy/Numpy) du NGINX, et pour les spécifiques à notre monde, énormément de GDAL et mapserver, geowebcache, des outils loufoques comme NCL, des librairies pour lire et écrire des formats de fichiers dans tous les sens (BUFR, SYNOP, METAR, GRIB2, NetCDF).
Et bien sûr surtout MariaDB, en mode réplication (et bientôt on aura besoin d’un mode « cluster » pour scaler), des protocoles de passage de message (RabbitMQ, WebSockets), de l’ElasticSearch et SphinxSearch pour la recherche fulltext, et du Redis + Memcached pour les caches applicatifs.
Au niveau infra, évidemment de la gestion de firewall, de bannissement automatique des IP, un peu de répartition de charge, de l’IP-failover, un réseau dédié entre machines (« vRack » chez OVH), beaucoup de partages NFS ou de systèmes de fichiers distribués (GlusterFS, mais c’est compliqué à maintenir donc on essaie de migrer vers de l’Object-Storage type S3).
Et on a aussi une appli mobile Android en Java, et iOS en Swift, mais elles sont vieillissantes, fautes de moyens  (leur développement a été sous-traité), et la majorité des fonctionnalités est de toutes façons destinée à être intégrée sur le site en mode « responsive design ».
Je passe sur la nécessité de s’interfacer avec des API externes (envois de mails, récupération de données météo sur des serveurs OpenData, parsing de données météo, API de la banque pour les paiements d’adhésions), des outils de gestion interne (Google Workspace, qui est « gratuit » pour les assos, hé oui !), des serveurs FTP et VPN pour connecter nos stations météo, un Gitlab auto-hébergé pour le ticketing et le code source …

SB : On a aussi des difficultés à dégager du temps pour d’autres actions : installer des stations météo par exemple, ce n’est pas négligeable. Il faut démarcher des propriétaires, obtenir des autorisations, parfois signer des conventions compliquées avec des collectivités locales, gérer des problématiques « Natura 2000 » ou « Bâtiments de France », aller sur site,… c’est assez complexe. Nous essayons de nous reposer au maximum sur notre communauté de bénévoles et adhérents pour nous y assister.

Quels sont vos besoins actuels ?

SB : Dans l’idéal, et pour venir en renfort de Frédéric, nous aurions besoin d’un développeur « full-stack » PHP à plein temps, et d’un DevOps pour pouvoir améliorer l’architecture de tout ça (qui n’est plus au goût des stacks technologiques modernes, et sent un peu trop l’année 2010 plutôt que 2022, ce qui rend la maintenance compliquée alors que le trafic web généré suppose de la perf’ et des optimisations à tous les niveaux).
Ce n’était pas immédiatement possible au vu des revenus de l’association, qui atteignaient environ 60.000€ en 2021, dont 15.000€ sont dépensés en frais de serveurs dédiés chez OVH (passer au tout-cloud coûte trop cher, en temps comme en argent,… mais gérer des serveurs aussi !).

FA : On développe aussi deux applis Android et iOS, qui reprennent les contenus du site dans un format simplifié, et surtout permettent de recevoir des alertes « push » selon les conditions météo, et d’afficher des widgets. Elles sont dans le même esprit que le site (pas de pubs, le moins de contenus tiers possibles), cependant ce sont des applis que l’on a sous-traité à un freelance, ce qui finit par coûter très cher. Nous réfléchissons à quelle direction donner à celles-ci, surtout au vu de l’essor de la version « responsive » de notre site.
Nous aimerions commencer à donner une direction européenne à notre plateforme, et la mettre à disposition des communautés d’autres pays. Il y a un gros travail de traduction, mais surtout de travaux techniques pour rendre les pages de notre site « traduisibles » dans différentes langues.

Vous ouvrez cette année un premier poste salarié, quelle a été votre démarche ?

SB : Dès lors, nous avions surtout un besoin intermédiaire, qui vise à faire progresser nos revenus. Pour cela, notre première marche sur l’escalier de la réussite, c’est de recruter un·e chargé·e de développement associatif, chargé d’épauler les bénévoles du Conseil d’Administration à trouver des fonds : mécènes et subventionneurs publics. Les sujets climat sont au cœur du débat public aujourd’hui, l’engagement citoyen aussi (on l’a vu avec CovidTracker !), nous y participons depuis 20 ans, mais sans savoir nous « vendre ».

FA : Cette première marche, nous l’avons franchie grâce à Gandi, dans le cadre de son programme « Gandi Soutient », qui nous a mis en relation avec vous, Framasoft. Vous êtes gentiment intervenus auprès de nos membres de Conseil d’Administration, et vous nous avez rassurés sur la capacité d’une petite association à se confronter aux monopoles commerciaux, en gardant ses valeurs fondatrices. Sans votre intervention, nous n’aurions probablement pas franchi le pas, du moins pas aussi vite !

Intervention de Framasoft pendant une réunion du CA de Infoclimat

 

SB : Cela va nous permettre de faire souffler une partie de nos bénévoles. Même si cela nous fait peur, car c’est une étape que nous n’osions pas franchir pour préserver nos valeurs, c’est avec une certaine fierté que nous pouvons aujourd’hui dire : « nous sommes une asso d’intérêt général, nous proposons un emploi au bénéfice de tous, et qui prend sa part dans la mobilisation contre le changement climatique, en en donnant des clés de compréhension aux citoyens ».

FA : La seconde étape, c’est recruter un⋅e dév’ web full-stack PHP/JS, quelqu’un qui n’aurait pas été impressionné par ma liste de technos évoquée précédemment ! Comme nous avons eu un soutien particulièrement fort de notre communauté en ce début d’année, et que notre trésorerie le permet, nous avons accéléré le mouvement, et la fiche de poste est d’ores-et-déjà disponible, pour un recrutement envisagé à l’été 2022.

Comment pouvons-nous soutenir Infoclimat, même sans s’y connaître en stations météo ?

FA : Pour celles et ceux qui en ont les moyens, ils peuvent nous soutenir financièrement : c’est le nerf de la guerre. Quelques euros sont déjà un beau geste ; et pour les entreprises qui utilisent quotidiennement nos données (on vous voit !), un soutien plus important permet à nos outils de continuer à exister. C’est par exemple le cas d’un de nos mécènes, la Compagnie Nationale du Rhône, qui produit de l’électricité hydroélectrique et éolienne, et est donc légitimement intéressée de soutenir une asso qui contribue au développement des données météo !
Pour cela, nous avons un dossier tout prêt pour expliquer le détail de nos actions auprès des décideurs. Pour aller plus loin, une seule adresse : association@infoclimat.fr

Et pour ceux qui veulent aussi s’investir, nous avons une page spécifique qui détaille le type de tâches bénévoles réalisables : https://www.infoclimat.fr/contribuer.

Ce n’est pas exhaustif, il y a bien d’autres moyens de nous épauler bénévolement, pour celles et ceux qui sont prêts à mettre les mains dans le cambouis : des webdesigners, développeurs aguerris, experts du traitement de données géographique, « datavizualisateurs », ou même des gens qui veulent faire de l’IA sur des séries de données pour en trouver les erreurs et biais : il y a d’infinies possibilités ! Je ne vous cacherai pas que le ticket d’entrée est assez élevé du point de vue de la technique, cela dit…

SB : Pour les autres, il reste l’énorme possibilité de participer au site en reportant des observations via le web ou l’appli mobile (une paire d’yeux suffit!) ainsi que des photos, ou… simplement nous faire connaître ! Une fois comprise la différence entre Infoclimat et tous les sites météo, dans le mode de fonctionnement et l’exploitation commerciale ou non des données, on comprend vite que notre association produit vraiment de la valeur au service des citoyens, sans simplement profiter des données des autres, sans apporter sa pierre à l’édifice, comme le font nonchalamment d’autres initiatives. Par ailleurs, nous avions pour projet d’avoir une page sur Wikipédia, refusée par manque de notoriété 🙁 . Idem pour la demande de certification du compte Twitter de l’Association, qui pourtant relaie de l’information vérifiée et montre son utilité lors des événements météo dangereux ou inhabituels, comme lors de l’éruption tout récente du volcan Hunga Tonga-Hunga Ha’apai sur les Iles Tonga qui a été détectée 15h plus tard et 17.000 km plus loin par nos stations météo lors du passage de l’onde de choc sur la métropole!

Capture écran : tweets postés avec le passage de l'onde de choc après l'erruption du volcan des Iles Tonga sur la métropole

FA : Infoclimat, c’est un peu l’OpenFoodFacts du Yuka, l’OpenStreetMap du GoogleMaps, le PeerTube du YouTube, le Wikipédia de l’Encarta (pour les plus vieux)… et surtout une formidable communauté, que l’on en profite pour remercier ici !

On vous laisse maintenant le mot de la fin !

SB : Bien sûr, on aimerait remercier tous ceux qui ont permis à cette aventure de progresser : tous les bénévoles qui ont œuvré depuis 20 ans, tous les adhérent⋅e⋅s qui ont apporté leur pierre, nos mécènes et donateurs, ainsi que les passionnés qui alimentent le site et nous soutiennent depuis toutes ces années!

FA : Le soutien de Gandi et Framasoft a aussi été un déclencheur, et j’espère que cela pourra continuer à être fructueux, au service d’un monde meilleur et désintéressé. Des initiatives comme la notre montrent qu’être une asso, ça permet de produire autant voire plus de valeur que bien des start-up ou qu’un gros groupe qu’on voit passer dans le paysage météo. Et pourtant, nous sommes souvent bien moins soutenus, ou compris.

 

Resources à consulter :




Mais où sont les livres universitaires open-source ?

Où sont les livres universitaires libres, ceux qu’on pourrait télécharger gratuitement à la façon d’un logiciel open-source ? Les lecteurs et lectrices du Framablog qui étudient ou travaillent à l’université se sont probablement posé la question.


Olivier Cleynen vous soumet ici quelques réponses auxquelles nous ouvrons bien volontiers nos colonnes.


Les manuels universitaires libres, j’en ai fabriqué un : Thermodynamique de l’ingénieur, publié en 2015 au sein du projet Framabook. Cette année, alors que Framabook se métamorphose en Des livres en commun et abandonne le format papier, je reprends le livre à mon nom et j’expérimente avec différentes formes de commercialisation pour sa troisième édition. C’est pour moi l’occasion de me poser un peu et de partager avec vous ce que j’ai appris sur ce monde au cours des sept dernières années.

 

Bon, je vais commencer par prendre le problème à l’envers. Un manuel universitaire, c’est d’abord un livre et comme tout autre livre il faut qu’il parte d’un désir fort de la part de l’auteur/e, car c’est une création culturelle au même titre qu’une composition musicale par exemple. Et d’autre part c’est un outil de travail, il faut qu’il soit très cohérent, structuré, qu’il justifie constamment l’effort qu’il demande au lecteur ou à la lectrice, en l’aidant à accomplir quelque chose de précis. Ces deux facettes font qu’il doit être le produit du travail d’un nombre faible de personnes très impliquées. On le voit bien avec les projets Wikibooks et Wikiversity par exemple, qui à mes yeux ne peuvent pas décoller, par contraste avec Wikipédia où le fait que certains articles soient plus touffus que d’autres et utilisent des conventions de notation différentes ne pose aucun problème.

Leonardo da Vinci (1452-1519), Codex Leicester, un manuel italien écrit en miroir, ayant un peu vieilli, mais heureusement déjà dans le domaine public.

 

Pour écrire un livre comme Thermodynamique de l’ingénieur j’estime (à la louche) qu’il faut un an de travail à quelqu’un de niveau ingénieur. En plus de ça il faut au moins deux personne-mois de travail pour mettre le tout en page et avoir un livre prêt à l’impression.

Je n’aime pas beaucoup ce genre de calculs qui ont tendance à tout réduire à des échanges mercantiles, mais dans un monde où l’équipe d’en face loue l’accès à un PDF en ligne à 100 euros par semestre, on peut se permettre d’écrire quelques nombres au dos d’une enveloppe, pour se faire une idée. Un an de travail pour une ingénieur médiane coûte 58 k€ brut en France. Pour deux personnes-mois de mise en page, on peut certainement compter 5 k€ de rémunération brute, soit au total: 63 000 euros.

Maintenant en partant sur la base de 1000 livres vendus on voit qu’il faudrait récolter 63 euros par livre pour financer au “prix du marché”, si je peux me permettre, le travail purement créatif. C’est une mesure (très approximative…) de ce que les créateurs choisissent de ne pas gagner ailleurs, lorsqu’ils/elles font un livre en accès gratuit ou en vente à prix coûtant, comme l’a été le Framabook de thermodynamique.

Thermodynamique de l’ingénieur – troisième édition

Bien sûr, si l’on reprend le problème à l’endroit, le prix d’un livre acheté par un étudiant ou une universitaire n’est pas du tout calculé sur cette base, car il faut aussi et surtout rémunérer les autres acteurs entre l’auteure et la lectrice.

La part du lion est assurément réservée aux distributeurs, et parmi eux Amazon, qui sont passés progressivement de purs agents logistiques à de véritables plateformes éditoriales. Les distributeurs ont ainsi dépassé leur rôle initial (être une réponse à la question : « où vais-je me procurer ce livre qui m’intéresse ? ») et saturé le niveau d’au-dessus, en proposant de facto toutes les réponses les plus pertinentes à la question : « quel est le meilleur livre sur ce sujet ? ».

 

Au milieu de tout ça, il y a les éditeurs. Un peu comme les producteurs dans le monde de la musique, leur rôle est de résoudre l’équation qui va lier et satisfaire tous les acteurs impliqués dans l’arrivée du livre entre les mains de la lectrice. Ils sont ceux qui devraient le mieux connaître les particularités de ce produit pas tout à fait comme les autres, et pourtant…

 

Dans notre exploration du monde des manuels universitaires, je vais choisir de diviser les éditeurs en trois groupes.

tout un patrimoine est rendu légalement inaccessible.

Au centre, nous avons les petits. Ils sont écrasés par tous les autres, mais je peux dire d’emblée qu’ils n’ont que ce qu’ils méritent. Leurs outils et méthodes de travail sont désuets voire archaïques, et ils saisissent très mal les mécanismes du succès éditorial. Donc, ils se contentent de sortir beaucoup de livres pour espérer en réussir quelques-uns. Contactez-les avec votre projet, et ils vous proposeront un contrat dans lequel vous renoncez ad vitam à tout contrôle, et à 93% des revenus de la vente. Faites le calcul : même avec un prix de vente élevé, disons 40€, ce qu’ils vous présenteront sans sourciller comme un succès (mille livres vendus) ne vous rapportera même pas 3000 euros bruts, étalés sur dix ans.

Vous me direz que ce n’est pas bien grave, qu’avoir une haute rentabilité, une haute efficacité, n’est pas un but en soi : tout le monde ne veut pas être Jeff Bezos, et le monde a bien besoin de petits acteurs, de diversité éditoriale, de tentatives risquées, tout comme le secteur de la musique. Certes ! Mais voyons les conséquences en aval. Lorsque le contrat est signé, le copyright sur l’œuvre passe irréversiblement dans les mains de l’éditeur, qui ne l’exploitera vraisemblablement que dix ans. Que se passe-t-il après ? Le livre n’est plus imprimé, il sort de la sphère commerciale, et… il est envoyé en prison. Il rejoint la montagne de livres abandonnés, qui attendent, sous l’œil du gendarme copyright, le premier janvier de la 71ème année après la mort de leur auteur, que l’on puisse les réutiliser. Un siècle de punition ! Quelle bibliothèque en aura encore un exemplaire en rayon lorsqu’ils en sortiront ?

 

Et voilà comment nous entretenons cette situation absurde, dans laquelle une masse de travail faramineuse, sans plus aucune valeur commerciale, est mise hors d’accès de ceux qui en ont besoin. Il y a des manuels universitaires par centaines, parfaitement fonctionnels, dont le contenu aurait juste besoin d’un petit dépoussiérage pour servir dans les amphis après une mise à jour. Ils pourraient aussi être traduits en d’autres langues, ou bien dépecés pour servir à construire de nouvelles choses. Au lieu de ça, en thermodynamique les petits éditeurs sortent chaque année de nouveaux manuels dans lesquels les auteurs décrivent une nouvelle fois l’expérience de Joule et Gay-Lussac de 1807, condamnés à refaire eux-mêmes le même schéma, les mêmes diagrammes pression-volume, donner les mêmes explications sans pouvoir utiliser ce qui a déjà été fait par leurs prédécesseurs. Certes, d’autres disciplines évoluent plus vite que la mienne, mais partout il y a des fondamentaux qu’il n’est pas nécessaire de revisiter très souvent, et pour lesquels tout un patrimoine est rendu légalement inaccessible. Quel gâchis !

des pratiques difficiles à accepter pour ceux pour qui un livre doit aussi être un outil d’émancipation.

Grimpons maintenant d’un étage. Au dessus des petits éditeurs, les gros ; eux résolvent l’équation autrement, en partant du point de vue qu’un manuel universitaire est un outil de travail professionnel : un produit pointu, hyper-spécialisé et qui coûte cher. Aux États-Unis, ce sont eux qui mènent la course. Pour pouvoir suivre un cours de thermodynamique ou de chimie organique, l’étudiant/e lambda est forcée d’utiliser un manuel qui coûte entre 100 et 300 euros par le/la prof, qui va baser tous ses cours, diapositives, sessions d’exercices et examens dessus. Nous parlons de pavés de 400 pages, écrits par plusieurs auteur/es et illustrés par des professionnels, des outils magnifiques qui non seulement attisent votre curiosité, mais aussi vous rassasient d’applications concrètes et récentes, en vous permettant de progresser à votre rythme. On est loin des petits aides-mémoire français avec leurs résumés de cours abscons !

Ces manuels sont de véritables navires, conduits avec soin pour maximiser leur potentiel commercial, avec des pratiques pas toujours très éthiques. Par exemple, les nouvelles éditions s’enchaînent à un rythme rapide, et les données et la numérotation des exercices sont souvent modifiés, pour rendre plus difficile l’utilisation des éditions antérieures. Pour pouvoir capter de nouveaux marchés, en Asie notamment, les éditeurs impriment pour eux des versions beaucoup moins chères, dont ils tentent après par tous les moyens d’interdire la vente dans les autres pays.

Le prix de vente des livres est en fait tel que pour les étudiants, la location devient le moyen d’accès principal. Les distributeurs (comme Amazon US ou Chegg) vous envoient l’enveloppe de retour affranchie directement avec le livre. Vous pouvez tout de même surligner et annoter l’intérieur du livre : il ne sera probablement pas reloué plus d’une fois. Après tout, le coût de fabrication est faible au regard des autres sommes en jeu : il s’agit surtout de pouvoir contrôler le nombre de livres en circulation (lire : empêcher la revente de livres récents et bon marché).

Les éditeurs tentent aussi de ne pas louper le virage (très lent…) de la dématérialisation, en louant l’accès au contenu du livre via leur site Internet ou leur appli. Pensiez-vous que l’on vous donnerait un PDF à télécharger ? Que nenni. Nos amis francophones au Canada ont déjà testé pour vous : « Les étudiants sont pris en otage avec une plateforme difficile d’utilisation à un prix très élevé. Difficile de faire des recherches, difficile de naviguer, difficile de zoomer, difficile d’imprimer. Difficile de toute. En plus, on perd l’accès au livre après un certain temps, alors qu’on paie presque la totalité du prix d’un livre physique. Il y a un problème. »

En bref, cet étage combine le meilleur et le pire : des outils pédagogiques de très bon niveau, empaquetés dans des pratiques difficiles à accepter pour ceux pour qui un livre doit aussi être un outil d’émancipation.

l’émergence de créateurs et créatrices de biens culturels plus indépendants et plus justement rétribués

En dessous de ces deux groupes, il y a tout un ensemble désordonné d’entreprises qui proposent aux auteurs potentiels de court-circuiter les voies d’édition traditionnelles (j’expérimente en ce moment avec plusieurs de ces acteurs pour mon livre). On peut mentionner Lulu, qui fournit un service d’impression à la demande (Framabook l’a longtemps utilisé), mais aussi Amazon qui accepte de plus en plus facilement dans son catalogue physique et immatériel (Kindle) des livres auto-édités. En marge, il y a un grand nombre d’acteurs qui facilitent la rémunération des créateurs et créatrices en tout genre, par exemple en permettant la vente de fichiers informatiques, de services en ligne, et le financement ponctuel ou régulier de leur travail par leur audience. Ces choses étaient très difficiles à mettre en pratique il y a quinze ans ; maintenant ces entreprises érodent par le bas les piliers financiers de l’édition traditionnelle. Elles permettent, d’une part, l’émergence de créateurs et créatrices de biens culturels plus indépendants et plus justement rétribués, qui ne se feront pas manger tout/es cru/es par les machines de l’édition traditionnelle. Elles permettent aussi, et c’est plus regrettable, la monétisation d’échanges qui auraient dû rester non-commerciaux ; par exemple on ne peut que grincer des dents en voyant des enseignants fonctionnaires de l’éducation nationale, sur une plateforme quelconque, se vendre les uns aux autres l’accès à leurs fiches de travaux pratiques de collège. Dans l’ensemble toutefois, je pense que la balance penche franchement dans le bon sens, et je me réjouis de savoir que de plus en plus de personnes se voient offrir la possibilité de se demander : « tiens, et si j’en faisais un livre ? ».

 

Alors toi, petit/e prof de l’enseignement supérieur, qui voudrais bien faire un livre de ce que tu as déjà construit avec tes cours, et qui regardes ce paysage, tu te demandes si tu ne devrais pas faire un manuel universitaire open-source, un truc que les étudiants et les autres profs pourraient télécharger et réadapter sans rien devoir demander. Qu’est-ce que je peux te recommander ?

Pour commencer, le plus important — fonce ! Tu ne le regretteras pas. Je partage volontiers avec toi quelques chiffres et quelques retours, sept ans après m’être lancé (mais sans avoir jamais travaillé sur la communication ou la diffusion). Une trentaine de personnes télécharge le PDF de mon livre depuis mon site Internet chaque jour, la moitié depuis les pays d’Afrique francophone, et une sur cinq-cent met la main à sa poche pour acheter un exemplaire imprimé. Après six ans, ça représente 250 livres vendus (250 kilos de papier !). Je retrouve des traces de mon livre un peu partout sur Internet, pour le meilleur et pour le pire. Il y a eu un gros lot de mauvaises surprises, parce qu’il y a beaucoup de dilution : le PDF du livre est repris, en entier ou en petits morceaux, par de nombreux acteurs plus ou moins bien intentionnés. Le plus souvent ce sont simplement des banques de PDFs et miroirs informes qui s’efforcent de bien se positionner dans les résultats des moteurs de recherche, puis génèrent un revenu en apposant de la publicité à côté du contenu qu’ils reproduisent. Il y a aussi des plateformes (par exemple Academia.edu pour ne pas les nommer) qui encouragent leurs utilisateurs à republier comme les leurs les travaux des autres, et mon livre fait partie de milliers d’autres qui sont partagés sous une nouvelle licence et en étant mal attribués. Le plus désagréable est certainement de voir mon travail occasionnellement plagié par des universitaires qui ont voulu croire que le livre était simplement déposé dans le domaine public et qu’il n’était pas nécessaire d’en mentionner l’auteur. Mais je pense que ces problèmes sont propres à tous les livres et pas seulement ceux que l’on diffuse sous licence Creative Commons.

Il y a aussi de bonnes surprises ! Recevoir un paquet de correctifs par quelqu’un qui a pris le temps de refaire tes exercices. Recevoir un compliment et un remerciement d’une consœur que tu n’as jamais pu rencontrer. Voir ton PDF téléchargé depuis des adresses IP associées à une ville au milieu du désert algérien, ou bien d’endroits où personne ne n’a jamais vu une librairie universitaire ou une camionnette Amazon. Ces moments à eux seuls font du projet un succès à mes yeux, et ils te porteront toi aussi dans tes efforts.

 

Dans tout cela, il faut bien voir que les quantités d’argent mises en jeu dans la circulation du livre sont dérisoires, à des années-lumières de la valeur que vont créer les étudiants ingénieurs avec ce qu’ils ont appris à l’aide du manuel. Et surtout, après avoir de bon cœur mis son livre en libre téléchargement et la version papier en vente à prix coûtant, l’auteur/e réalise un matin, comme certainement beaucoup de programmeurs libristes avant lui/elle, que des œuvres concurrentes objectivement bien moins bonnes et beaucoup plus chères se vendent bien mieux.

Où trouver notre place alors dans ce paysage compliqué ? Un livre sous licence Creative Commons peut-il être une bonne réponse au problème ?

Une capture d'écran d'un livre à la location sur Amazon US
Cette treizième édition du livre, préférez-vous l’acheter neuve pour 190 euros, ou d’occasion pour 100 euros ? Sinon, je vous propose de la louer pour 37 euros…

 

Je pense qu’une bonne recette de fabrication pour livre universitaire doit en tout premier satisfaire trois groupes : les auteur/es, les enseignant/es et les étudiant/es. De quoi ont-ils/elles besoin ? Je propose ici mes réponses (évidemment toutes biaisées par mon expérience), en listant les points les plus importants en premier.

 

Ce que veulent les auteur/es :

  • Fabriquer une œuvre qui n’est pas cloisonnée, qui peut servir à d’autres si je disparais ou si le projet ne m’intéresse plus (donc quelque chose de ré-éditable, qu’on peut corriger, remettre à jour, traduisible en japonais et tout ça sans devoir obtenir de permission).
  • Une reconnaissance de mon travail, quelque chose que je peux valoriser dans un CV académique (donc quelque chose qui va être cité par ceux qui s’en servent).
  • De l’argent, mais pas cent-douze euros par an. Soit le livre contribue significativement à mes revenus, soit je préfère renoncer à gagner de l’argent avec (pour maximiser sa diffusion et m’éviter les misères administratives, la contribution à la sécu des artistes-auteurs ou à l’Urssaf etc).

 

Ce que veulent les enseignant/es :

  • Un contenu fiable (un livre bien ancré dans la littérature scientifique existante et dans lequel l’auteur/e n’essaie pas de glisser un point de vue « alternatif » ou personnel).
  • Un livre remixable, dont on peut reprendre le contenu dans ses diapos ou son polycopié, de façon flexible (ne pas devoir scanner les pages du livre ou bien tout redessiner).
  • Un livre dont le prix est supportable pour les étudiant/es.

 

Et enfin, ce que veulent les étudiant/es :

  • Un livre qui les aide à s’en sortir dans leur cours. C’est d’abord un outil, et il faut survivre aux examens ! Si le livre rend le sujet intéressant, c’est un plus.
  • Un livre très bon marché, ou encore mieux, gratuit.
  • Un livre déjà désigné pour elles et eux, et qui correspond bien au programme : personne n’a envie d’arpenter les rayons de bibliothèque ou le catalogue d’Amazon en espérant trouver de l’aide.

 

On le voit, finalement nous ne sommes pas loin du compte avec des livres sous licence Creative Commons ! Tous les outils importants sont déjà à portée de main, pour créer le livre (avec des logiciels libres en tout genre), l’encadrer (avec des contrats de licence solides) et le distribuer (avec l’Internet pour sa forme numérique et, si nécessaire d’autres plateformes pour sa forme physique). C’est peut-être un évidence, mais il est bon de se rappeler parfois qu’on vit une époque formidable.

 

Alors, que manque-t-il ? Pourquoi les livres libres n’ont-ils toujours pas envahi les amphis ? Quels sont les points faibles qui rendent l’équation si difficile à résoudre ? Je pense qu’une partie de la réponse vient de nous-mêmes, nous dans les communautés impliquées autour des concepts de culture libre, de partage des connaissances et de logiciels open-source. Voici quelques éléments de critique, que je propose avec beaucoup de respect et en grimaçant un peu car je m’identifie avec ces communautés et m’inclus parmi les responsables.

la monnaie de cette reconnaissance est la citation académique

Je voudrais d’abord me tourner vers les enseignant/es du supérieur. Confrères, consœurs, nous devons citer nos sources dans nos documents de cours, et les publier ! Je sais que construire un cours est un travail très chronophage, souvent fait seul/e et à la volée — comment pourrait-il en être autrement, puisque souvent seul le travail de recherche est valorisé à l’université. Mais trop de nos documents (résumés de cours, exercices, diapositives) ne citent aucune source, et restent en plus coincés dans un intranet universitaire, cachés dans un serveur Moodle, invisibles depuis l’extérieur. Sous nos casquettes de chercheurs, nous sommes déjà les premiers responsables d’une crise sans fin dans l’édition des publications scientifiques. Nous devons faire mieux avec nos chapeaux d’enseignants. Nous le devons à nos étudiants, à qui nous reprochons souvent de faire la même chose que nous. Et nous le devons à ceux et celles dont nous reprenons le travail (les plans de cours, les schémas, les exercices…), qui ont besoin de reconnaissance pour leur partage ; la monnaie de cette reconnaissance est la citation académique. Il faut surmonter le syndrome de l’imposteur : mentionner un livre dans la bibliographie officielle de la fiche descriptive du cours ne suffit pas. Il faut aussi le citer dans ses documents de travail, et les laisser en libre accès ensuite.

 

Quant aux institutions de l’enseignement supérieur (écoles, instituts, universités en tous genres), je souhaite qu’elles acceptent l’idée que la création de supports de cours universitaires est un processus qui demande de l’argent au même titre que la création de savoir par l’activité de recherche. Il faut y consacrer du temps, et il y a des frais de fonctionnement. Sans cela, on laisse les enseignants perpétuellement réinventer la roue, coincés entre des livres trop courts ou trop chers pour leurs étudiants. Il manque plus généralement une prise de conscience que l’enseignement supérieur a tout d’un processus industriel (il se fait à grande échelle, il a de très nombreux aspects qui sont mesurables directement etc.): nous devons arrêter d’enseigner avec des méthodes de travail qui relèvent de l’artisanat, chacun avec ses petits outils, ses méthodes et son expérience.

 

Un peu plus loin, au cœur-même des communautés libristes, il y a aussi beaucoup d’obstacles à franchir pour l’auteur/e universitaire : ainsi les défauts de la bibliothèque multimédia communautaire Wikimedia Commons, et du projet Creative Commons en général, pourraient faire chacun l’objet d’un article entier.

 

Ce que j’ai appris avec ce projet de livre, c’est que travailler à l’intersection de tous ces groupes consomme une certaine quantité d’énergie, parce que mon espoir n’est pas que le fruit de tout ce travail reste à l’intérieur. J’ai envie d’envoyer mon livre de l’autre côté de la colline, où il se retrouve en concurrence avec des manuels de gros éditeurs, parce que c’est ce public que je veux rencontrer — l’espoir n’est pas de faire un livre pour geeks libristes, mais plutôt d’arriver dans les mains d’étudiants qui n’ont pas l’habitude de copier légalement des trucs. Créer ce pont entre deux mondes est un travail en soi. En le réalisant, j’ai appris deux choses.

un travail de communication et de présence en amont.

La première, c’est que nous dépendons toujours d’une plate-forme ou d’une autre. Comme beaucoup d’autres avant moi, je me suis hissé sur les épaules de géants depuis une chambre d’étudiant, en montant une pile de logiciels libres sur mon ordinateur et en me connectant à un réseau informatique global décentralisé. L’euphorie perdure encore jusqu’à ce jour, mais elle ne doit pas m’empêcher d’accepter qu’on ne peut pas toujours tout faire soi-même, et qu’une activité qui implique des transactions financières se fait toujours à l’intérieur d’un ou plusieurs systèmes. Quel que soit son métier, avocate, auteure, chauffagiste, restaurantiste, une personne qui veut s’adresser à un public doit passer par une plate-forme : il faut une boutique avec vitrine sur rue, ou un emplacement dans une galerie commerciale, ou une fiche dans un annuaire professionnel, ou bien un emplacement publicitaire physique ou numérique, ou encore être présent dans un salon professionnel. Chaque public a des attentes particulières. Pour que quelqu’un pense à vous même sans se tourner activement vers une plateforme (simplement en pensant silencieusement « bon il me faut un livre de thermodynamique » ou « bon il faut que quelqu’un répare cette chaudière ») il faut que vous ayez fait un travail de communication et de présence en amont. Toutes les plateformes ne sont pas équivalentes, loin de là ! Le web est certainement une des toutes meilleures, mais là aussi nous voulons trop souvent oublier qu’elle est de facto mécaniquement couplée à une autre, celle du moteur de recherche duquel émanent 92% des requêtes mondiales : c’est ce moteur qu’il faut satisfaire pour y grandir.

 

Autre plateforme, Amazon: l’utiliser pour distribuer ses livres, c’est participer à beaucoup de choses difficiles à accepter sociétalement. Framasoft a fait le choix de ne plus l’utiliser, et c’est tout à leur honneur, d’autant plus lorsqu’on voit le travail qu’ils abattent pour en construire de meilleures, des plateformes ! Personnellement, j’ai choisi de continuer à y vendre mon livre, car il y a des publics pour lesquels un livre qui n’est pas sur Amazon n’existe pas. Idem pour Facebook, sur lequel je viens bon gré mal gré de me connecter pour la première fois, parce que mon livre s’y partage que je le veuille ou non et que je voudrais bien voir ça de plus près. Ainsi, au cours des dernières années j’ai appris à observer les flux au delà de la connexion entre mon petit serveur et mon petit ordinateur.

 

La seconde chose que j’ai apprise, c’est que nous avons, nous au sein des communautés du logiciel et de la culture libres, une relation assez dysfonctionnelle à l’argent. Il nous manque globalement de l’argent, ça je le savais déjà (j’ai fondé et travaillé à plein temps pour une association sont les objectifs ressemblaient un peu à ceux de Framasoft il y a 15 ans), mais j’avais toujours attribué cela à de vagues circonstances extérieures. Maintenant, je suis convaincu qu’une grande part de responsabilité nous revient : il nous manque de la culture et de la sensibilité autour de l’argent et du commerce. Dès que l’on professionnalise son activité, on vient à bout du credo « il est seulement interdit d’interdire » que nous avons adopté pour encadrer le partage des biens communs culturels. Nos licences et nos organisations sont en décalage avec la réalité et nous faisons collectivement un amalgame entre « amateur », « non-commercial » et « à but non-lucratif ». — j’y reviendrai dans un autre article.

 

Voilà tout ce que j’ai en tête lors que je me demande où sont les livres universitaires libres. Qui sera là pour faire un pont entre tous ces mondes ? Il y a quelques années, le terme “Open Educationnal Resource” (OER ou en français REL) a pris de l’essor un peu comme le mot-clé “MOOC”, une idée intéressante pas toujours suivie d’applications concrètes. Plusieurs projets ont été lancés pour éditer des livres et cours universitaires libres. Aujourd’hui beaucoup on jeté l’éponge : Lyryx, Boundless, Flatworld, Tufts OpenCourseWare, Bookboon se sont arrêtés ou tournés vers d’autres modèles. Il reste, à ma connaissance, un seul éditeur avec un catalogue substantiel et à jour (je ne vous cache pas que je rêve d’y contribuer un jour) : c’est OpenStax, une organisation américaine à but non-lucratif, avec une quarantaine de manuels en anglais. Et dans la sphère francophone ? Un groupe de geeks de culture libre arrivera-t-il jamais à faire peur à tout le monde en mettant dans les mains des étudiants des outils qu’ils peuvent utiliser comme ils le veulent ?




CLIC ! : une plateforme de coopération tout terrain

Fin novembre, des commoners (militant·e·s des communs), artistes, animateurs et animatrices de rues se sont retrouvé·e·s au Vigan (dans les Cévennes gardoises), pour travailler sur le #ProjetCLIC! (Contenus et Logiciels pour des Internets Conviviaux !), une plateforme numérique pour essaimer des pratiques numériques et coopératives, solidaires et émancipatrices grâce à des logiciels, ressources et formations librement partageables.


Que ce soit dans le secteur associatif, en entreprise, ou dans tout autre collectif, les besoins en outillage informatique sont prégnants. Les géants de l’Internet savent proposer des solutions qui paraissent convenir mais cela a un certain prix, que ce soit en termes monétaires ou d’abandon de notre vie privée. Heureusement, certaines initiatives, telles que celles portées par Framasoft et les CHATONS, permettent de répondre à ces besoins sans concession. Cependant, ces solutions nous font dépendre de tiers, qui doivent être de confiance, et elles sont limitées à la présence d’une connexion internet et à la capacité du tiers à maintenir son service en ligne. En outre, ces outils sont livrés « nus » : il nous faut alors les alimenter en contenus afin de partager nos savoirs et connaissances.

Comment permettre que ces contenus et outils soient facilement accessibles, utilisés et réutilisables dans tous les contextes, y compris les plus éloignés de l’Internet ?

C’est à cette fin que les Animacoop, Colibris, Framasoft, ritimo, le Réseau national des ressourceries, Yunohost et autres allié·es ont imaginé « CLIC! », pour essaimer des pratiques numériques coopératives, solidaires et émancipatrices.

La proposition de CLIC! est de s’auto-héberger (d’installer les services sur son matériel, chez soi) et d’avoir ses outils libres et contenus disponibles localement, et/ou sur le grand Internet avec un système technique pré-configuré. On vous explique.

CLIC! home servicesL’interface de sélection des services dans CLIC!

Entre Chatons et PirateBox : CLIC!

CLIC! pourrait être vu comme un mix entre un CHATONS (hébergeur de logiciel et service libre) et une Piratebox (dispositif électronique accessible par wifi, permettant de partager des contenus libres) pour mettre l’auto-hébergement à la portée de toutes et tous.

Coté logiciel, CLIC! est une distribution Linux issue de Yunohost qui propose déjà des services et des contenus libres préinstallés. L’idée est de proposer en plus des contenus thématiques installables en un clic (fichiers multimédias, parcours pédagogiques, …)

Coté matériel, il pourrait s’installer sur différentes machines: le gros serveur dans un datacenter, un nano-ordinateur type Raspberry Pi, ou encore sur des « ordinosaures » (de vieilles tours d’ordinateurs ou d’anciens ordinateurs portables réutilisés).

Dessin CLIC! FrédériqueUn schéma de Frédérique pour y voir plus clair (ou pas)

Une coding party pour faire avancer le projet

La semaine du 22 au 28 novembre 2021, un groupe éclectique de développeur·euses, facilitateur·rices, bricoleur·euses et artistes issu·es de divers horizons se sont retrouvé·es pour imaginer des usages, adapter l’ergonomie, travailler l’interface, réaliser des installations artistiques dans l’espace public et poursuivre les développements de la distribution CLIC!

Le groupe s’est retrouvé à la Fabrègue (la fabrique en occitan), un écolieu du Vigan associé à la ressourcerie locale.

Une vidéo timelapse pour voir l’ambiance et comment on collaborait

Appréhender ce que pourrait être un Internet low-tech

Qu’est-ce qu’un Internet low-tech ? Le simple fait de trouver une définition des concepts et de se mettre d’accord sur le degré d’autonomie souhaité est un vaste sujet !
De nombreuses personnes réfléchissent déjà au sujet. Notre approche est très concrète : comment faire du mieux avec les ressources à disposition près de chez nous (récupérer du vieux matos dans ses placards ou dans les ressourceries) et tester du matériel peu gourmand en énergie (comme un nano-ordinateur) pour s’auto-alimenter en électricité.
Voici les pistes explorées durant cette semaine au Vigan :

Alimentation autonome via panneaux solaires

Quelques tests ont été réalisés pour discuter des problématiques d’alimentation d’un petit ordinateur ARM avec une batterie lithium et un panneau solaire USB.

Une caractéristique importante des batteries est la puissance maximale qu’elles peuvent absorber quand on les charge. C’est ce qui permettra de déterminer s’il est possible de les recharger en une seule journée via un panneau solaire ou s’il faudra compter plusieurs jours de soleil pour une charge complète.

12b prend des mesures d’un Raspberry Pi sur batterie, avec un écran portable branché.

Toutes les informations à ce sujet sur https://wiki.distrilab.fr/?TestsBatteriesEtPanneauxSolairesUSB

Récupération de batteries lithium d’anciens ordinateurs portables

Un beau travail a été mené pour détailler les opérations nécessaires pour récupérer des batteries depuis des vieilles batteries d’ordinateurs portables. Toutes les opérations sont détaillées dans un tutoriel accessible sur le wiki du Distrilab.

Alimentation et batterie lithiumLes piles lithium rondes que l’on peut trouver dans les batteries d’ordinateurs portables

Réemploi de vieux ordinateurs (ordinosaures)

Visite à la Ressources du pont au ViganLa délégation partie faire ses courses à la Ressourcerie du Pont pour faire le plein d’ordinosaures qui deviendront autant de kiosques autonomes mettant à disposition autant de services numériques que des livres électroniques ou des MOOCs

Hack-design

Des plasticien·nes locaux ont fait parler leur imagination pour créer de nouveaux looks pour différents usages :

  • Yeahman : un crieur de rue qui enregistrera des paroles publiques et les rediffusera, faisant office de jukebox actionnable par liens mp3 dans des QR-codes
  • Mouche à facette: un Raspberry Pi volant, avec des ailes en boule à facettes
  • Girafe rose : une statue de girafe en bois cachant un point d’accès wifi et un serveur CLIC!

Raspberry pi zero avec écran e-inkAutre piste explorée : un lecteur d’annonces connecté au web par flux RSS, à base de raspberry pi zéro et écran e-ink (comme sur les liseuses d’e-book, l’écran noir et blanc continue d’afficher du contenu sans avoir besoin d’énergie)

Améliorer les outils pour permettre l’usage en local et déconnecté du grand internet

Nous avons profité de la présence d’éminents contributeur·ices Yunohost et Chatons, pour contribuer au code de projets libres. Ainsi :

  • Ljf a pu corriger des bugs du hotspot wifi dans Yunohost et faire en sorte qu’il propose les services du serveur CLIC même sans connexion internet ✨
  • Tobias a ajouté le support de Framemo dans le dépot d’applications de YunoHost. Il a également travaillé sur une app permettant de remonter des informations vers l’outil de statistiques des chatons
  • 12b a créé des images Raspberry Pi et Odroid « clé en main » pour avoir un Yunohost avec des services installés, et une sélection de contenus de formations, de vidéos et de textes préinstallés, et accessibles en mode wifi « hotspot » local.
  • Aleks a fait une interface de configuration initiale pour CLIC!, accessible depuis le navigateur web, basée sur ce qui existait déjà pour la brique internet.

Ordinateur qui lance l'install de CLIC!L’interface d’installation de CLIC!

Penser les usages et les contenus pour être au plus proche des besoins des gens

Le temps nous a manqué pour réaliser tout ce que nous avions imaginé, en partie parce que nous avons pris du temps pour avoir des moments de restitution et d’échange avec les personnes en visite sur le lieu, ce qui fut riche !
Des graines de projets ont donc été semées et pousseront en 2022 :

  • une rubrique « Participation citoyenne » est apparue dans CLIC!, pour permettre d’effectuer des votes, des sondages et d’autres échanges locaux ;
  • initier les bénévoles de la ressourcerie à l’installation de ces kiosques sur des vieux ordinateurs et mettre la formation à disposition de toutes et tous ;
  • faire des tests utilisateur·ices en direct sur un marché avec un nano-ordi nomade et un kiosque à la ressourcerie.

Affiche OrdinosaureUne affiche de présentation des bornes Recy’clic par Uto de R(d)évolution

Expérimenter de nouvelles manières de travailler ensemble

Se voir en vrai, vivre ensemble, prendre soin des besoins de toutes et tous, s’amuser, passer du bon temps entre et avec des personnes inspirant·es… Cette rencontre a provoqué une envie de continuer à travailler ensemble sur ce projet. Voici quelques ingrédients, que nous pouvons partager, pour des rencontres réussies :

  • Liberté de rythme et de présence : certains étaient là pour quelques jours, d’autres pour une semaine. Certains actifs tôt le matin, d’autres (et iels étaient nombreux⋅ses) tard dans la nuit.
  • Un lieu inspirant et des hôtes accueillant·e·s, merci R(d)évolution du Vigan!
  • Un cadre de travail mêlant grand repas auto-organisés, discussions enflammées, temps de travail collectif et présentation croisées des avancées
  • Des animateur·ice·s soucieux·ses de l’inclusion des participant·es, de nombreux points de synchronisation
  • Faire du commun, trouver du sens dans nos collaborations

Quelques liens pour creuser

Le mot de la fin

Comme d’habitude sur le framablog, un petit mot des participant·es pour conclure :

  • ljf : Il reste de nombreux défis à relever pour proposer de l’auto-hébergement facile, itinérant et déconnectable, cette résidence était un pas de plus, longue vie au projet CLIC! et merci aux habitant⋅es de la Fabrègue et à leur énergie inspirante.
  • 12b : De belles rencontres et un projet inspirant. On continue en 2022!
  • Simon : Une chouette rencontre avec une belle diversité et plein d’idées, vivement la suite !
  • Tobias : Une rencontre hors du temps qui crée autant de code que d’idées et de liens entre les personnes.
  • Frédéric : Une belle parenthèse pour moi qui cours toujours après le temps et de super rencontres! Ce fut un vrai moment de bonheur de pouvoir participer au développement de cette solution. Merci à tous·tes
  • Christian : un chouette moment d’échange, pour découvrir, expérimenter, tester et discuter. Un grand merci aux organisateurs.
  • Lilian : Il y a encore du travail pour que cela soit accessible à tous·tes, mais un énorme potentiel pour permettre à chacun·e d’avoir facilement accès à des outils éthiques.
  • Ulysse : Une très belle aventure, qui va essaimer, et pas forcément là où on l’imagine, et c’est ça qui est beau !
  • Florian: merci Framasoft de nous avoir soutenus dans cette démarche et au plaisir de vous voir à notre prochain sprint IRL avec ce super groupe <3
  • Mathieu : un dispositif dont ritimo rêvait depuis de nombreuses années, qui est en train d’aboutir avec les précieuses contributions de chouettes personnes, et un soutien extra de Framasoft : la recette pour créer du lien, de l’interconnaissance, de la confiance – et construire ensemble du commun !

Crédit photos et vidéos : 12b Fabrice Bellamy – licence CC BY SA




Des Livres en Communs : premier appel à projet

Et si on considérait le travail de création initiale d’un auteur ou d’une autrice comme une activité qui mérite salaire ? Montrer que c’est possible, tel est le défi de Des Livres en Communs. On va tout vous expliquer.

Nous vous l’avions annoncé et expliqué, à l’expérience de notre maison d’édition Framabook succède aujourd’hui un nouveau projet qui repose sur un autre modèle.

 

 

Après Framabook…

Après une vingtaine de manuels, huit essais, une dizaine de BD et une quinzaine de romans (tout demeure évidemment disponible), le constat est fait que malgré des conditions plus éthiques pour les auteurs et les licences libres, la diffusion des ouvrages s’est heurtée à un système où des plateformes demeurent le passage obligé pour libraires et bibliothèques, dans un marché saturé par la pléthore de publications. De sorte que malgré leurs qualités les œuvres que nous avons avec soin accompagnées ne trouvaient pas un public qui permettait aux auteurs et autrices un retour satisfaisant en rapport avec leur travail (Pour en savoir plus).

… Des Livres en Communs

Faut-il préciser ce que toutes les personnes qui se risquent dans l’édition classique découvrent bien vite : dans leur très grande majorité elles ne percevront qu’une assez étique rémunération de leur travail, bien après leur travail d’élaboration. Lisez par curiosité quelques témoignages comme celui de Julie ou celui de Marine Nina, les chiffres donnés sont édifiants… En clair, à de très rares exceptions près (une poignée d’auteurs et autrices de best-sellers) il n’est pas possible de vivre décemment de son activité créatrice, au point que pour la plupart, une autre activité, rémunérée celle-là, est indispensable.

 

Illustration CC BY David Revoy (sources)

Des Livres en Communs (DLeC) propose d’aborder le problème d’une façon différente (non, on n’a pas dit « disruptive »). Nous proposons un revenu de « travail de création » sous la forme modeste d’une « bourse initiale » sur projet. Ce n’est pas encore un salaire d’auteur-autrice, mais sur le principe c’est presque cela (Pour en savoir plus).

Le processus que nous lançons aujourd’hui est le suivant :

  1. DLeC fait un appel à projet, des créateurs et créatrices y répondent ;
  2. Un projet est sélectionné et une somme est allouée au travail de création ;
  3. Au terme de ce travail, l’ouvrage réalisé est publié sous forme numérique et disponible pour tout le monde, car versé dans les Communs culturels avec une licence libre.

 

Mais encore… ?

Voici la version rapide du thème de notre premier appel à projet, il s’agit de répondre à votre façon à cette interrogation, directement issue de notre méta-projet contributopia :

Vers un monde plus contributif, plus solidaire, plus éthique et plus libre : comment s’outiller et s’organiser ensemble ?

Pour en découvrir le contexte de façon plus détaillée, parcourez la page d’accueil du site dédié flambant neuf

capture d'écran de la page d'accueil du site des livres en communs
Cliquez sur l’image pour rejoindre le site de DLeC




Les Métacartes « Numérique Éthique » : une boîte à outils pour s’émanciper

Faire le point sur son utilisation du numérique et améliorer ses pratiques : mais par où commencer ? Les Métacartes « Numérique Éthique » permettent d’accompagner ces réflexions, de se poser des questions pertinentes et d’évaluer ses priorités.

Pour animer leurs formations, Mélanie et Lilian (facilitateur⋅ices et formateur⋅ices, notamment dans Animacoop), ont souhaité expérimenter un nouveau format facilement transportable, utilisable à plusieurs et dans l’espace. Iels ont ainsi créé les Métacartes (sous licence CC BY-SA), un jeu réel où chaque carte est reliée à une ressource en ligne régulièrement actualisée. Cela permet d’avoir un contenu à jour et non-obsolète (particulièrement intéressant dans le domaine du numérique). Framasoft avait souhaité soutenir leur initiative pleine de sens, nous vous en parlions sur le Framablog dans cet article.

Nous voulons maintenant vous aider à prendre les cartes en main pour facilement utiliser le jeu. Pour illustrer nos propos, nous allons prendre l’exemple d’un collectif qui souhaite questionner ses usages numériques : l’orchestre universitaire de l’Université Populaire Libre Ouverte Autonome et Décentralisée (que nous écrirons pour simplifier la lecture : l’orchestre UPLOAD).

Utiliser les cartes selon vos besoins

Pour commencer à utiliser les cartes, il est important de comprendre qu’il y a de nombreuses façons de les aborder et tout va dépendre du contexte général dans lequel vous vous trouvez. Vos valeurs sont-elles bien définies ? Les outils internes actuellement utilisés posent-ils des problèmes particuliers ? Les Métacartes peuvent ainsi être vues comme une boîte à outils sous forme de cartes : vous utiliserez une partie des outils, selon vos besoins, afin de faciliter un passage à l’action.

Les cartes « Ingrédients » : définir vos priorités

Les cartes « Ingrédients » sont les cartes violettes du jeu. Celles-ci présentent des éléments clés à prendre en compte pour vos réflexions. Elles comportent deux sous catégories : #critère et #usage.

Les cartes #critère pour affirmer vos valeurs

Une entrée par les cartes #critère est intéressante pour approfondir votre éthique et vos valeurs. En parcourant l’ensemble des cartes #critère, vous pouvez sélectionner 3 à 5 critères qui vous semblent les plus importants. Vous allez ainsi prioriser les critères à prendre en compte lors du choix d’un outil.

Les membres de l’orchestre UPLOAD ont ainsi choisit trois critères à prioriser dans l’évaluation de leurs outils actuels et/ou dans la recherche d’alternatives :

  • Logiciel libre : l’orchestre prône depuis sa création la mise sous licence libres d’œuvres musicales. Utiliser des logiciels libres est donc un choix essentiel pour le groupe, pour être en accord avec ses valeurs ;
  • Facilité de changement : les musicien⋅nes préfèrent de loin jouer de la musique plutôt que de passer des heures à changer leurs pratiques. Il faudra s’informer sur la facilité de migration et de prise en main des outils pour ne pas frustrer le groupe ;
  • Interopérabilité : il est essentiel pour les membres de l’orchestre de pouvoir partager du contenu sans avoir à penser à qui utilise quel logiciel. L’interopérabilité sera donc essentielle, pour que différents outils puissent communiquer entre eux.

Cartes #critère sélectionnées par l'orchestre UPLOAD : Logiciel libre, Facilité de changement, Interopérabilité

Les cartes #usage pour identifier vos besoins concrets

Les cartes #usage permettent de définir les besoins réels en terme d’outils numériques. Vous pouvez ainsi commencer à sélectionner les cartes représentant vos besoins réguliers. Cette étape va permettre de démêler les outils numériques actuellement utilisés, de les nommer et de les questionner. Cet outil est-il en accord avec vos critères préalablement établis ? Ou voulez-vous le changer ? Les cartes #usage proposent justement des alternatives sur les ressources en ligne : une bonne manière de rapidement trouver des solutions !

L’orchestre UPLOAD a ainsi choisi les cartes #usage suivantes :

  • Diffusion d’information : diffusion d’info toutes les semaines aux membres de l’orchestre sur l’organisation interne (répétitions, week-ends, déroulé des concerts…)
    • Actuellement utilisé : envois par mail à tous les membres de l’asso.
    • OK avec les critères définis ? Non, le logiciel mail utilisé n’est pas libre.
    • Alternative : utiliser par exemple une liste de diffusion avant de penser à changer d’hébergeur de mail (moins contraignant pour commencer).
  • Organisation de rencontres : choix des dates de concert.
    • Actuellement utilisé : Framadate.
    • OK avec les critères définis ? Oui.
    • Alternative : pas besoin.
  • Partage de gros fichiers : les membres se partagent régulièrement partitions, vidéos et photos des concerts.
    • Actuellement utilisé : WeTransfer ou pièce jointe d’un email.
    • OK avec les critères définis ? Non, les logiciels ne sont pas libres.
    • Alternative : faire appel à un hébergeur éthique pour s’envoyer les fichiers par liens, par exemple parmi les CHATONS.

Les outils à garder et à changer sont ainsi définis. Le groupe a pris le temps de questionner pourquoi garder ou changer chaque outil. Les alternatives ont été proposées, il faudra maintenant les mettre en place et les tester.

Cartes #usage sélectionnées par l'orchestre UPLOAD : Diffusion d'information, Organisation de rencontres, Partage de gros fichiers

Les cartes « Recettes » : des méthodes d’animation

Les cartes jaunes ou cartes « Recettes », proposent des idées d’animation pour amorcer des réflexions et sensibiliser sur certaines pratiques numériques. Elles peuvent demander plus ou moins de préparation pour l’animation (le niveau indiqué sur la carte, de 1 à 3).

Exemple de la carte « Vous êtes ici »

La carte « Vous êtes ici » est associée à une trame graphique en ligne pour voir où vous en êtes sur votre parcours vers un numérique éthique. Le chemin va appeler d’autres cartes du jeu pour avoir des réflexions approfondies, et comprendre dans quelle direction vous allez.

Canva "Vous êtes ici" de l'orchestre UPLOAD

L’orchestre UPLOAD s’est positionné sur cette image sur l’étape « Faire le point » : la prise de conscience des enjeux a amené le groupe à agir pour changer ses pratiques !

Soutenir le projet

Ça leur a plu !

Dans un atelier avec ses étudiant⋅es de l’UTC, Stéphane Crozat nous partage son point de vue : « J’ai eu un ressenti positif en tant que prof, les étudiant⋅es faisaient ce que j’attendais. Iels souriaient, riaient, avaient l’air de prendre plaisir à l’exo. L’éval des étudiant·es est bonne. » (leurs commentaires sont ici).

Dans le cadre d’une formation pour des des conseiller⋅es numériques, Julie Brillet, bibliothécaire, formatrice et facilitatrice a exprimé sur Twitter « que les métacartes étaient vraiment un outil adapté, notamment comme porte d’entrée au site metacartes.cc qui comprend plein de contenus. »

Acheter le jeu

Vous souhaitez avoir votre propre jeu de Métacartes « Numérique Ethique » ? C’est par ici : https://www.metacartes.cc/produit/metacartes-numerique-ethique/

Se former à l’utilisation des Métacartes

Mélanie et Lilian proposent aussi une formation à distance pour apprendre à utiliser les Métacartes, et vous aider à approfondir les questions liées au numérique : https://www.metacartes.cc/produit/decouvrir-la-boite-a-outils-numerique-ethique/

Ressources à consulter




La recherche et ses publications : le long chemin vers un libre accès

« Si la recherche universitaire est financée par des fonds publics, il n’y a aucune raison pour que ses publications soient privées ». Et pourtant…

La diffusion des publications universitaires dépend le plus souvent d’éditeurs qui tirent profit de situations de quasi-monopole en imposant une sorte de péage.
Pour échapper à ce contrôle marchand qui rend inaccessible l’accès aux connaissances à une part importante de la communauté scientifique mondiale, un nombre significatif de chercheuses et chercheurs désirent rendre le fruit de leur travail intellectuel disponible en Open Access.

La lutte pour le partage des connaissances est déjà ancienne. Retour rapide…

Il y a un peu plus de 10 ans maintenant, Aaron Swartz subissait la pression de poursuites judiciaires, qui allait le mener au suicide, pour avoir téléchargé et mis à disposition gratuitement 4,8 millions d’articles scientifiques de JSTOR, une plateforme de publication universitaire payante. Aaron Swartz était partisan d’un libre accès aux connaissances scientifiques, levier d’émancipation et de justice.

Aron Swartz par Sage Ross, CC BY-SA 2.0 <https://creativecommons.org/licenses/by-sa/2.0>, via Wikimedia Commons
Alexandra Elbakyan par Apneet Jolly, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons
C’est à peu près à la même époque qu’Alexandra Elbakyan a lancé Sci-Hub, animée du même désir de donner un large accès aux publications universitaires à tous ceux qui comme elle, n’avaient pas les moyens d’acquitter le péage imposé par des éditeurs comme la multinationale Elsevier.

Une large majorité de chercheurs, en France comme dans le monde entier, est favorable à l’accès libre à leurs publications. Citons par exemple Céline Barthonnat, éditrice au CNRS :

la diffusion du savoir scientifique fait partie du travail des personnels de la recherche [article L411-1 du code de la recherche]. Beaucoup de ces recherches qui sont financées par l’argent public sont diffusées ensuite par ces éditeurs prédateurs”.

(source)

Le billet de Glyn Moody que Framalang a traduit pour vous marque peut-être une étape dans ce long combat où la volonté de partager les connaissances se heurte constamment aux logiques propriétaires mercantiles qui veulent faire de la circulation des publications scientifiques un marché lucratif.

Glyn Moody indique ici qu’il existe désormais une possibilité pour que les auteurs et autrices de « papiers » scientifiques puissent conserver leur droit de publication et en permettre le libre accès.


Article original : Rights retention: one small step for academics, one giant leap for global access to knowledge

Traduction Framalang : Barbidule, Burbumpa, Claire, Draenog, Fabrice, goofy, jums, Sysy, xi

Rétention des droits : un petit pas pour la recherche, un pas de géant pour l’accès universel à la connaissance.

par Glyn Moody

empreinte du premier pas humain sur la Lune
Image by NASA/Buzz Aldrin.

 

Glyn Moody, par https://www.flickr.com/photos/stuartyeates/126951892/, CC BY-SA 2.0Il y a quelques semaines, nous nous demandions si les éditeurs universitaires essaieraient de faire supprimer l’extraordinaire Index général des publications scientifiques créé par Carl Malamud. Il existe un précédent de ce genre de poursuites judiciaires contre un service du plus grand intérêt pour la société. Depuis 2015, les éditeurs essaient de faire taire Sci-Hub, qui propose près de 90 millions de publications universitaires. Le motif de leur plainte : Sci-Hub viole leurs droits d’auteur12

C’est étrange, car d’après la loi, les droits d’auteur de la vaste majorité de ces 90 millions de publications sont détenus par les chercheur·euse·s qui les ont rédigées.

Et la majorité de ces chercheur·euse·s approuve Sci-Hub, comme l’a clairement montré une étude menée en 2016 par le magazine Science :

Il est probable que l’échantillon retenu pour le sondage soit biaisé par une surreprésentation des fans du site : près de 60 % des personnes interrogées disent avoir déjà utilisé Sci-Hub, et un quart le font quotidiennement ou chaque semaine. De sorte qu’on ne s’étonnera guère si 88 % d’entre elles déclarent ne rien voir de mal dans le téléchargement de publications piratées. Mais notez bien, éditeurs universitaires, que ce ne sont pas seulement des jeunes et de grands utilisateurs de Sci-Hub qui voient les choses ainsi. Un examen plus attentif des données du sondage indiquait que les personnes interrogées de toutes les catégories soutiennent la fronde, même celles qui n’ont jamais utilisé Sci-Hub ou celles âgées de plus de 50 ans – respectivement 84 % et 79 % – n’avaient aucun scrupule à le faire.

Alors, si la plupart des chercheur·euse·s n’ont aucun problème avec Sci-Hub, et l’utilisent eux-mêmes, pourquoi le site est-il poursuivi par les éditeurs ? La réponse à cette question révèle un problème clé crucial, celui des tentatives en cours pour rendre les savoirs universitaires librement accessibles, par le biais de l’open access.

Théoriquement, les chercheur·euse·s peuvent diffuser leurs publications sous une licence Creative Commons, ce qui permet de les lire et de les reproduire librement, et de se baser facilement sur ce travail. En réalité, les auteurs sont souvent « incités » à céder leurs droits aux éditeurs de la revue où apparaît la publication, ce qui conditionne l’accès aux connaissances derrière à des paiements onéreux. Ce n’est pas indispensable, c’est seulement ce qui est devenu habituel. Mais les conséquences en sont importantes. D’abord, les auteurs originaux deviennent réticents à partager leurs articles, parce qu’ils sont « sous copyright », comme le mentionne un précédent article (en anglais) de ce blog. Ensuite, si les droits sont transférés des auteurs vers les éditeurs, alors ces derniers peuvent poursuivre en justice les sites comme Sci-Hub, sans tenir compte de l’avis des chercheur⋅euse⋅s.

La bonne nouvelle, c’est qu’il existe maintenant des efforts coordonnés pour éviter ces problèmes grâce à « la rétention des droits ». Tout en garantissant aux éditeurs le droit de diffuser un article dans leur publication, les auteurs et autrices conservent aussi certains droits pour permettre le libre partage de leurs articles, et leur utilisation par des sites comme Sci-Hub. Un des chefs de file de cette initiative est cOAlition S, un groupe d’organisations de financement de la recherche, avec le soutien de la Commission européenne et du Conseil Européen de la Recherche. Les principes essentiels du « Plan S » de la Coalition précisent :

À compter de 2021, toutes les publications universitaires dont les résultats de recherche sont financés via des fonds publics ou privés au travers d’institutions nationales, continentales, régionales ou internationales, doivent être publiées dans des revues ou sur des plateformes en libre accès, ou bien encore être immédiatement disponibles sur un répertoire en libre accès, et ce sans aucune restriction.

L’un des points-clés de ce Plan S est le suivant :

Les auteurs et autrices ou leurs institutions gardent les droits sur leurs publications. Toute publication doit être placée sous licence ouverte, de préférence la licence Creative Commons Attribution (CC BY).

 

 

deux petits personnages simplifiés (boules avec 4 membres). l'un est enfermé derrière les barreaux d'une prison, il porte sur lui un C comme copyright, l'autre est libre et s'en va en courant, il porte les deux C de Cretaive Commons.
Illustration par Nina Paley

 

Ça semble fonctionner. Un récent article de Ross Mounce mettait en évidence le fait suivant :

En tant que personne indépendante de la cOAlition S, j’ai pu observer avec grand intérêt la mise en application de la stratégie de rétention des droits.
En utilisant Google Scholar et Paperpile, j’ai relevé plus de 500 papiers publiés sur des centaines de supports différents qui utilisaient la référence à la stratégie de rétention des droits dans les remerciements.

Les auteurs s’en servent pour conserver leurs droits sur les prépublications, les articles de revues, les supports de conférences, les chapitres de livres et même des posters sur les affiches, c’est tout à fait logique. La stratégie est rédigée en termes simples et elle est facile à ajouter à des résultats de recherche. Il est aisé de mentionner ses sources de financement des recherches et d’ajouter ce paragraphe : « Afin de maintenir un accès libre, l’auteur⸱ice a appliqué la licence de libre diffusion CC BY à toute version finale évaluée par les pairs découlant de la présente soumission », et donc les autrices et auteurs le font.

Comme souligné ci-dessus, il suffit donc aux chercheur·euse·s d’ajouter la brève mention qui suit à leurs articles pour conserver leurs droits fondamentaux :

« Afin de maintenir un accès libre, l’auteur⸱ice a appliqué la licence de libre diffusion CC BY à toute version finale évaluée par les pairs découlant de cette la présente soumission. »

C’est un si petit pas pour un⸱e chercheur⸱euse, mais un tel pas de géant pour faciliter l’accès universel à la connaissance, que toutes et tous devraient le faire naturellement.

Ce billet de Glyn Moody est sous licence CC BY 4.0


Pour aller plus loin…