Ça fait des années qu’on essaye d’avancer sur le sujet, mais il faut bien reconnaître que, vu le nombre de services et d’activités que l’on gère, c’est la galère. D’ailleurs, si ça vous étonne, on a une entrée claire dans la FAQ.
On a tout de même bien avancé depuis octobre dernier, accompagné‧es que nous sommes par stella.coop. Notre liste des traitements est sur pied, mais il nous reste à compléter les fiches des différents traitements (on en documente d’ailleurs l’avancement dans notre wiki public). Il nous faut donc passer sur chaque service, déterminer les finalités des traitements, lister les données récupérées, vérifier si elles sont obligatoires, leur visibilité, les services tiers utilisés, etc.
Face à cette montagne, une idée me trotte dans la tête depuis un moment : que les développeurs et développeuses de logiciels maintiennent elles-mêmes un document synthétisant les informations utiles dans le cadre du RGPD. Cela faciliterait le travail de celles et ceux qui proposent des instances de leur logiciel, mutualiserait le travail ingrat et limiterait les erreurs.
Comme on n’est jamais aussi bien servi que par soi-même, j’ai imaginé un fichier pour faciliter l’échange d’informations autour des questions liées au RGPD : le fichier GDPR.txt.
Le principe est fort simple : le fichier GDPR.txt se place à la racine du code source d’un projet logiciel — à la manière d’un fichier README — et contient l’ensemble des informations utiles concernant la collecte des données effectuée par ledit logiciel.
Le but est que les hébergeuses et hébergeurs de services puissent se baser sur des informations fiables pour créer leur propre liste de traitements de données. Car oui, attention : il ne suffit pas de fournir un fichier GDPR.txt pour se conformer au RGPD ! Ce fichier n’existe qu’à titre informatif.
Le format, quant à lui, est très simple. Si vous êtes développeur ou développeuse d’un logiciel libre, je vous invite à jeter un œil au site qui présente le format du fichier : gdpr-txt.org (en anglais). Vous pouvez également y contribuer sur Framagit.
En conclusion, j’aimerais que les acteurs et actrices du logiciel libre s’emparent de ce fichier et inventent encore d’autres manières d’informer les utilisateurs et utilisatrices sur la manière dont sont utilisées leurs données. Il serait dommage qu’après avoir bataillé pendant des années pour une meilleure réglementation autour de nos données personnelles, nous nous satisfaisions de l’état actuel. Soyons clairs : les GAFAM se torchent toujours autant avec nos données ; seulement, ils s’en lavent les mains grâce à une conformité RGPD de façade. C’est à nous désormais de placer la barre encore plus haut.
Modifier aujourd’hui la structure d’Internet : une mauvaise idée ?
La guerre en cours met le monde entier face à des décisions cruciales, et il est compréhensible que l’Ukraine appelle à utiliser tous les moyens pour lutter contre son agresseur russe. Cependant, dans cet article que Framalang a traduit pour vous, l’Electronic Frontier Foundation, ardent défenseur des libertés numériques, souligne qu’il y aurait beaucoup d’inconvénients à instrumentaliser Internet en modifiant ses règles de fonctionnement à des fins politico-militaires, comme le demande l’Ukraine.
C’est la guerre, pas le moment de toucher à Internet
par Corynne McSherry et Konstantinos Komaitis
À l’EFF, comme beaucoup, nous sommes horrifiés par l’invasion russe de l’Ukraine. Comme beaucoup aussi, nous ne sommes experts ni en stratégie militaire ni en diplomatie internationale. Nous avons cependant une certaine expertise en matière de libertés sur Internet, c’est pourquoi nous sommes extrêmement préoccupés de voir que des gouvernements, partout dans le monde, font pression sur des entreprises liées à Internet pour modifier sa structure fondamentale.
Manipuler Internet à des fins politiques ou militaires risque fort de se retourner contre nous de multiples façons.
Les plateformes de médias sociaux sont déjà sous forte pression. La Russie exige de plusieurs entreprises, comme Facebook, Google ou Netflix, qu’elles diffusent des contenus commandités par l’État. L’Union européenne, dans un geste sans précédent, a décidé d’interdire dans toute l’UE la diffusion de ces contenus par ces canaux sous contrôle étatique, et l’Ukraine demande à la Commission européenne de faire bien plus encore.
Le gouvernement ukrainien a en effet demandé à l’ICANN1 de déconnecter la Russie d’Internet, en révoquant ses noms de domaine de premier niveau (Top Level Domains, ou TLD) « .ru », « .рф » et « .su », afin de compliquer l’accès aux sites web et aux e-mails russes partout dans le monde. L’Ukraine a aussi contacté le RIPE, l’un des cinq registres régionaux pour l’Europe, le Moyen-Orient et une partie de l’Asie centrale, pour lui demander de révoquer l’attribution d’adresses IP à la Russie.
Concrètement, certaines de ces demandes sont fondamentalement impossibles à satisfaire : l’ICANN n’a pas de bouton magique pour déconnecter un pays, le RIPE ne peut pas simplement révoquer des adresses IP. Mais ce n’est pas le seul problème : modifier les protocoles des structures fondamentales d’Internet pourrait avoir bon nombre de conséquences dangereuses et durables.
En voici quelques-unes :
Cela priverait les gens d’un très puissant moyen de partager les informations juste au moment où ils en ont le plus besoin
Si Internet peut être utilisé pour diffuser de fausses informations, il permet à chacun et chacune, activistes, militantes des droits humains, journalistes ou citoyens ordinaires, de documenter et de partager les faits en temps réel et, ainsi, de résister à la propagande. En effet, il semblerait que la Russie tente depuis des années de se « débrancher » d’Internet, afin de contrôler entièrement les communications du pays. Les fournisseurs d’accès à Internet ne devraient pas aider le gouvernement russe, ou n’importe quel autre gouvernement, à enfermer les gens dans une bulle informationnelle.
Cela créerait un dangereux précédent
De telles interventions, une fois admises, fourniraient aux États et aux acteurs qu’ils soutiennent de nouveaux outils pour contrôler le débat public. Dès que des processus ou des outils qui permettent de limiter l’expression sont développés ou améliorés, les entreprises peuvent s’attendre à un raz-de-marée de demandes pour les appliquer, ce qui finirait inévitablement par cibler des propos pour lesquels ces outils n’étaient pas initialement conçus et que ces entreprises n’avaient pas initialement l’intention de traiter. Au niveau des plateformes, les États et les acteurs qu’ils soutiennent ont depuis longtemps détourné les outils de signalement en véritables armes qui permettent de réduire les opposants au silence.
Cela pourrait compromettre la sécurité et la vie privée de tout le monde
Toute tentative pour altérer l’infrastructure aura un impact sur la sécurité d’Internet et de ses usagers. Par exemple, la révocation d’adresses IP signifie que des dispositifs tels que le Routing Policy Specification Language (RPSL), que les fournisseurs d’accès internet utilisent pour définir leurs politiques de routage, ou la Resource Public Key Infrastructure (RPKI), qui sert à améliorer la sécurité de l’infrastructure de routage BGP d’Internet, seraient sérieusement compromis. Cela exposerait les usagers à des « attaques de l’homme du milieu », compromettrait des activités ordinaires telles que les transactions bancaires, et limiterait la vie privée, car les usagers n’auraient plus d’endroit où se cacher.
Cela saperait la confiance dans le réseau ainsi que dans règles qui le structurent
La confiance est primordiale dans l’auto-organisation et l’interopérabilité des réseaux. C’est elle qui assure la résilience d’une infrastructure de communication globale capable de résister aux pandémies et aux guerres. Cette confiance dépend, à son tour, de processus imparfaits mais minutieux, par lesquels de multiples acteurs développent des politiques, des règles et des mécanismes institutionnels neutres. Court-circuiter ces mécanismes dégraderait irrémédiablement la confiance sur laquelle Internet est fondé.
Nous avons été soulagés de voir que l’ICANN a refusé, tout comme le RIPE, d’obtempérer aux requêtes du gouvernement ukrainien et nous espérons que les autres organisations chargées de l’infrastructure feront de même.
Lors de situations de crises, nous sommes souvent tentés de prendre des décisions auparavant inimaginables. C’est maintenant que nous devons résister à cette tentation et exclure de la négociation toutes ces propositions.
En des temps obscurs, les gens doivent pouvoir aller vers la lumière, rassurer leurs proches, s’informer eux-mêmes et informer les autres, regarder par-dessus les murs de la propagande et de la censure. Internet est un outil crucial pour tout cela : ne jouons pas avec lui.
Publicité ciblée en ligne : rien ne changera tant que…
AdContrarian (en français, à peu près « Poil à gratter de la pub ») est le titre du blog de Bob Hoffman et ce choix dit assez combien ce journaliste notoire aux U.S.A s’évertue à « mettre mal à l’aise les marketeux » qu’il connaît bien et ne se lasse pas de les fustiger sans prendre de gants…
Dans sa newsletter de février que les bénévoles de Framalang ont traduit pour vous, il fait preuve d’un certain pessimisme par rapport au RGPD et à sa transposition dans les réglements étatsuniens, tant les acteurs de la publicité ciblée, Google et autres, ont peu de difficultés à contourner les lois ou à payer, même si le ciblage publicitaire est déclaré illégal…
L’intégralité de la publicité en ligne en Europe repose sur un pistage illégal.
Tel a été le verdict, en février dernier, du bras armé chargé du respect du RGPD (Règlement Général sur la Protection des Données).
Mardi 2 février 2022, les autorités chargées de la protection des données de l’Union européenne ont statué sur l’illégalité des « fenêtres popup qui sollicitent le consentement », ces affreuses notifications qui vous demandent dans un charabia incompréhensible d’accepter des cookies à chaque fois que vous arrivez sur un site web. Déroulons toute l’histoire depuis le début.
Il y a presque cinq ans, l’Union européenne a voté pour l’application du RGPD dont l’objectif était de protéger la vie privée des citoyens contre les abus de l’industrie de la collecte de données en ligne. Ce RGPD fixe certaines normes pour la collecte et l’utilisation des données, y compris pour les activités des agences publicitaires en ligne.
Pour se conformer au RGPD, les publicitaires ont demandé à leur regroupement industriel, la malhonnête et peu recommandable Interactive Advertising Bureau (ou IAB) Europe, d’imaginer un classique du genre, le « Cadre de transparence et de consentement » (TCF), qui selon eux permettait aux annonceurs de ne pas se conformer au RGPD. Le TCF est une justification bidon de ces stupides fenêtres de consentement.
Cette semaine, l’autorité de protection des données a jugé que le TCF c’est des grosses conneries et que c’est illégal. Ils ont jugé que le TCF :
• ne conserve pas les données personnelles de façon sécurisée, comme l’exige le RGPD ;
• ne recueille pas correctement le consentement des personnes ;
• n’a pas défini un « intérêt légitime » légalement valide pour la collecte de ces informations ;
• échoue à être transparent sur ce qui est fait de ces données personnelles ;
• échoue à veiller à ce que ces données soient traitées en accord avec les lignes directrices du RGPD ;
• échoue à respecter les critères du RGPD de « protection des données dès la conception ».
À part ça, c’est absolument super.
Chapeau à l’ICCL (Conseil irlandais pour les libertés civiles) pour avoir porté cette grosse affaire devant les instances européennes. Et un prix Nobel de quelque chose pour Johnny Ryan qui veille sans relâche sur les droits à la vie privée au nom de nous tous. On peut voir Johnny Ryan parler aux infos de ce jugement.
Question suivante : qu’est-ce que ça va changer pour le secteur de la publicité ciblée ? Comme nous le savons, ce secteur fait régulièrement un doigt d’honneur aux régulateurs et fait absolument tout ce qui lui chante. Les régulateurs pensent qu’ils gèrent les choses, mais leur incompétence pathétique et leur couardise ont permis au secteur de la publicité ciblée d’en faire voir de toutes les couleurs aux régulateurs et au public, depuis l’instauration du RGPD. Une conséquence de ce jugement est que Google et tous les autres acteurs du secteur de la publicité ciblée en ligne sont sommés de brûler toutes les données qu’ils ont collectées illégalement. Google se conformera à ça quand les réfrigérateurs auront des ailes.
L’IAB Europe a maintenant six mois pour corriger l’illégalité flagrante de leur TCF absurde. Que vont-ils faire ? À mon avis, ils vont pondre une autre magnifique bouse qui va prendre des années à contester, pendant que les publicitaires continueront d’entuber joyeusement le public. Comme d’habitude, j’espère avoir tort.
Le secteur de la publicité ciblée, en particulier Google et Amazon, amasse beaucoup trop d’argent pour en avoir quoi que ce soit à faire des amendes de pacotille que les régulateurs leur distribuent pour leurs activités criminelles. Pour eux, ce sont juste des frais de fonctionnement. Facebook n’essaie même pas de se soumettre au TCF, ils n’ont de comptes à rendre à personne.
Rien ne changera tant que personne n’aura été envoyé en prison.
Perspective locale
L’ironie dans tout ça, c’est que juste au moment où l’IAB étatsunienne est sur le point de spammer le monde entier avec sa version du TCF, les régulateurs de l’UE l’ont détruite.
Un peu de contexte…
Ici, aux États-Unis, il n’y a pas de loi contre quoi que ce soit. L’entité la plus proche que nous possédons pour réguler ce secteur corrompu de la publicité ciblée en ligne est appelée Loi de protection du consommateur en Californie (ou CCPA en anglais, California Consumer Protection Act). Elle est largement inspirée par le RGPD et aussi loin que remontent les mémoires, elle n’a jamais protégé qui que ce soit de quoi que ce soit (elle sera remplacée l’année prochaine par une autre bouillie de lettres appelée CPRA).
L’IAB étatsunienne a repris la formule illégale du TCF de leur branche Europe et l’a maladroitement transposée à la CCPA. Ils ont aussi convaincu les clowns, les escrocs et les collaborateurs de l’ANA, de la 4As (respectivement « Association of National Advertisers » et « American Association of Advertising Agencies » [des associations américaines de publicitaires, NdT]) et de grandes marques d’implémenter le TCF maintenant discrédité sous un nouveau nom foireux, « Global Privacy Platform » (Plateforme globale de la vie privée). Ouais, c’est ça.
Vue d’ensemble : L’arrogance des secteurs de la tech et du marketing aux États-Unis est tellement énorme que les actions des régulateurs n’ont quasi aucun poids. Quel sera l’effet le plus probable du jugement de cette semaine sur l’abus des données aux États-Unis ? En comptant à rebours, qu’est-ce qui vient après zéro ?
Ai-je déjà mentionné que rien ne changera tant que personne ne sera envoyé en prison ?
Comédie-ballet
La danse des régulateurs et du secteur de la publicité ciblée n’est rien d’autre qu’une performance artistique : les régulateurs portent plainte, les escrocs paient une petite amende, et tout le monde retourne à ses petites affaires.
Tout individu doté d’un cerveau fonctionnel peut comprendre qu’un secteur de la publicité ciblée basé sur du pistage est un racket criminel aux proportions gigantesques. C’est une vaste escroquerie planétaire, un crime organisé à l’échelle mondiale auquel participent quasi toutes les grandes entreprises, les organisations commerciales les plus réputées et l’ensemble des secteurs de la publicité, du marketing et des médias en ligne. Même l’IAB a reconnu avoir indiqué à la Commission européenne que les achats automatiques basés sur des enchères en temps réel sont « incompatibles avec le consentement prévu par le RGPD ».
Mais trop de personnes se font trop d’argent.
Rien ne changera tant que personne… ooooh, laissez tomber.
Infoclimat : un commun météorologique et climatologique à préserver !
Infoclimat est une association de passionné·es de météo, qui agit pour favoriser et vulgariser l’échange de données et de connaissances autour de la météo et du climat. Nous baignons dans les mêmes eaux et partageons les mêmes valeurs : les communs culturels doivent être ouverts à toutes et tous pour l’intérêt général !
L’association va fêter ses 20 ans et se lancer dans un nouveau projet : le recrutement de son·sa premier·ère salarié·e. C’est l’occasion de donner la parole à Frédéric Ameye et Sébastien Brana, tous deux bénévoles.
Bonjour Frédéric et Sébastien, pouvez-vous vous présenter ?
Frédéric Ameye (FA), 27 ans, je suis ingénieur dans les systèmes embarqués pendant les heures ouvrables… et en-dehors de ça, je suis depuis longtemps « Linuxien » et (modeste) défenseur du logiciel libre, mais aussi de l’égalité des chances à l’école — issu d’une famille ouvrière très modeste, c’est quelque chose qui me tient beaucoup à cœur. Le reste du temps (quand il en reste), vous me trouverez principalement en rando au fin fond de la montagne…
J’ai intégré l’aventure Infoclimat en 2009 (j’avais alors 15 ans), période à laquelle j’ai « refondu » le site web de l’asso à partir de l’ordinateur familial à écran cathodique, que je monopolisais des dizaines d’heures par semaine, jusqu’à très tard dans la nuit. J’ai continué ce rôle jusqu’à aujourd’hui (avec un écran plat, et moins d’heures dans la nuit car la trentaine arrive vite). Entre-temps, j’ai rejoint le Conseil d’Administration, et je suis ensuite devenu Vice-Président en 2015.
Sébastien Brana (SB), 42 ans. Dans la vie « hors Infoclimat », je suis chef de projet informatique à la Direction générale des finances publiques… et comme Frédéric, en dehors de « ça », j’occupe une grande partie de mon temps libre (soirées, week-end et congés) au profit du site et de l’association que j’ai rejoint en 2005 et dont je suis également Vice-Président depuis 12 ans. Au-delà des phénomènes météo (orages et chutes de neige notamment) qui m’ont toujours fasciné depuis aussi loin que je me souvienne, je suis également passionné par la communauté que nous avons formée depuis une vingtaines d’années, rassemblant des personnes de tous âges (des gamins de 10 ans aux retraités) et de tous milieux, amateurs ou professionnels, scientifiques ou littéraires, ou simplement amoureux de beaux paysages et de photographies. La météo touche tout le monde, les questions liées au climat interrogent tout le monde – bref, ces sujets intéressent voire passionnent bien au-delà des barrières sociales habituelles !
Vous êtes membres bénévoles de Infoclimat, pouvez-vous nous parler du projet de l’association ?
SB : Initialement, Infoclimat était un petit groupe de passionnés de météo et de climat, qui partageaient leurs relevés entre-eux à la fin des années 90, sur un site web appelé « OrageNet ». Tout cela a progressivement grossi, jusqu’à l’année 2003, où l’association a été créée principalement pour subvenir aux besoins d’hébergement du site web. A l’époque, nous étions déjà (et sans le savoir!) en « Web 2.0 » et pratiquions les sciences participatives puisque l’essentiel du contenu était apporté par les passionnés ; nous étions alors bien loin d’imaginer que les problématiques liées au climat deviendraient un enjeu mondial avec une telle résonance médiatique.
FA : Depuis, l’objet social s’est considérablement diversifié, avec la montée en puissance de notre asso. Aujourd’hui, nous visons trois thématiques particulières :
L’engagement citoyen au service de la météo et du climat : partager ses relevés, ses observations météo, installer des stations météorologiques,… au service de tous ! Cela permet de comprendre comment le climat change, mais aussi de déceler des particularités locales que les modèles de prévision ne savent pas bien prendre en compte, ou qui ne peuvent pas être mesurées facilement.
Valoriser la donnée météo et climato, qu’elle soit issue de services officiels ou diffusée en « OpenData » par nous ou nos passionnés, et en particulier en faire des outils utiles autant aux « pros » et chercheurs, qu’au service de la vulgarisation des sujets climatiques pour le grand public. Les utilisations sont très nombreuses : agriculture, viabilité hivernale, thermique dans l’habitat, recherches sur le changement climatique, production électrique, journalistes…
Former et transmettre les connaissances, par la production de contenus de vulgarisation scientifique, l’organisation de « rencontres météo », ou encore des interventions auprès des écoles, dans des événements sur le terrain ou sur les réseaux sociaux. Bref, contrer la désinformation et le buzz !
Vous faites donc des prévisions météo ?
SB : Même si le forum est largement animé par des prévisionnistes amateurs, nous parlons finalement assez peu de prévisions météo : le cœur du site, c’est l’observation météo en temps réel et la climatologie qui résulte des données collectées, qui sont des sujets bien différents ! Il y aurait tant à dire sur le monde de la prévision météo, mais cela mériterait un article à lui seul, car il y a un gros sujet là aussi sur l’ouverture des données et la paternité des algorithmes… Souvent négligée, l’observation météorologique est pourtant fondamentale pour produire une bonne prévision. Pour faire court, la donnée météo « observée » est la nourriture qu’il faut pour entraîner les modèles climatiques, et faire tourner les modèles numériques qui vous diront s’il faut un parapluie demain sur votre pixel de 1km².
FA : Ce qu’il faut savoir, c’est que l’immense majorité des sites internet ou appli que vous consultez ne font pas de prévisions météo, mais utilisent des algorithmes automatisés qui traitent des données fournies (gratuitement ou avec redevance) par les organismes publics (Météo-France, la NOAA, le Met-Office, l’organisme européen ECMWF,…). La qualité des prévisions est en gros corrélée à l’argent que les créateurs des sites et des applis peuvent injecter pour récolter des données brutes de ces modèles numériques. Par exemple, pour avoir les données du modèle de Météo-France « AROME », c’est à peu près gratuit car les données sont sous licence Etalab, mais si vous voulez des données plus complètes, permettant d’affiner vos algorithmes et de proposer « mieux », c’est sur devis.
Dès lors, Infoclimat ne souhaite pas se lancer dans cette surenchère, et propose uniquement des prévisions automatisées issues de données ouvertes de Météo-France et de la NOAA, et indique très clairement la différence entre prévisions automatisées et bulletins rédigés par des passionnés.
Cela me fait toujours rire (jaune) quand j’entends « [site ou appli] a de meilleures prévisions à chaque fois, et en plus, on les a à 15 jours ! » : lorsqu’il s’agit de prévisions « automatiques », par ville, il est probable qu’il utilise les mêmes données que tous les autres, présentées légèrement différemment, et qu’il s’agisse juste d’un biais de confirmation. Il existe bien sûr quelques exceptions, certaines entreprises faisant un vrai travail de fusion de données, d’analyse, de suppression des biais, pour proposer des informations de très grande qualité, généralement plutôt payantes ou pour les pros. Mais même chez ceux qui vous vendent du service d’aide à la décision, de protection des biens et des personnes, des données expertisées ou à vocation assurantielles, vous seriez très surpris de la piètre qualité de l’exploitation qui est faite de ces données brutes.
Malheureusement, cette situation rend très délicate la perception des prévisions météo par le grand public (« ils se trompent tout le temps ») : la majorité des applis prend des données gratuites, de faible qualité, sur le monde entier, qui donnent une prévision différente 4 fois par jour au fil des calculs. Cela ne met vraiment pas en valeur le travail des modélisateurs, qui font pourtant un travail formidable, les modèles numériques s’améliorant considérablement, et décrédibilisent aussi les conclusions des organismes de recherche pour le climat (« ils ne savent pas prévoir à 3 jours, pourquoi ils sauraient dans 50 ans ?! »), alors qu’il s’agit surtout d’une exploitation maladroite de données brutes, sans accompagnement dans leur lecture.
Du coup, quelles actions menez-vous ?
FA : Notre action principale, c’est la fourniture d’une plateforme sur le web, qu’on assimile souvent au « Wikipédia de la météo », ou à un « hub de données » : nous récoltons toutes sortes de données climatiques et météorologiques de par le monde, pour les décoder, les rendre digestes pour différents publics, et la mettre en valeur pour l’analyse du changement climatique. Ce sont par exemple des cartographies, ou des indices d’évolution du climat. C’est notre rôle initial, qui aujourd’hui compile plus de 6 milliards de données météo, à la qualité souvent rigoureusement contrôlée par des passionnés ! Il faut savoir que nous n’intégrons pas toutes les stations météo : nous respectons des normes de qualité du matériel et de l’environnement, pour que les données soient exploitables et comparables entre-elles, comparables avec des séries climatiques historiques, et assimilables dans des modèles numériques de prévision.
SB : Avec l’accroissement de notre budget, nous avons pu passer à l’étape supérieure : installer nos propres stations météo, et soutenir les associations locales et les passionnés qui en installent et qui souhaitent mettre leurs données au service d’une base de données commune et libre.
Il faut savoir que la donnée météo se « monnaye », et chèrement: Météo-France, par exemple, ne met à disposition du grand public que quelques pourcents de ses données, le reste étant soumis à des redevances de plusieurs centaines de milliers d’euros par an (on y reviendra). Ce n’est d’ailleurs pas le cas dans tous les pays du monde, les États-Unis (NOAA) ont été précurseurs, beaucoup de pays Européens s’y mettent, mais la France est un peu en retard… Nous sommes partenaires de Météo-France, participons à des travaux communs dans le cadre du « Conseil Supérieur de la Météorologie », mais c’est très long, trop long, et cela prive Météo-France d’une source de revenus importante dans un contexte de stricte restriction budgétaire. L’établissement public administratif se retrouve en effet pris dans une injonction contradictoire par son autorité de tutelle (le Ministère de la Transition écologique et solidaire) : d’un côté il doit « libérer » les données publiques et mettre en place les infrastructures nécessaires, de l’autre, on lui intime l’ordre de trouver de nouvelles sources de financement par sa branche commerciale, et on lui réduit ses effectifs !
Aujourd’hui, Infoclimat c’est donc un bon millier de stations météo (les nôtres, celles des passionnés, et de nos associations partenaires), qui complètent les réseaux nationaux dans des zones non couvertes, et qui permettront à l’avenir d’améliorer la fiabilité des modèles météo de Météo-France, dans des travaux que nous menons avec eux sur l’assimilation des réseaux de données partenaires. Parfois d’ailleurs, nous réinstallons des stations météo là où Météo-France est parti ou n’a pas souhaité améliorer ou maintenir des installations, comme au Mont-Ventoux (84), ou à Castérino (06). Et ces données intéressent une multitude d’acteurs, que nous découvrons souvent au hasard des installations : au-delà de l’intérêt pour la météo des particuliers (« combien fait-il au soleil? » « quelle quantité de pluie est tombée la nuit dernière? »), les activités professionnelles météo-sensibles allant de l’agriculture à l’expertise en assurance, en passant par les études de risques et/ou d’impacts jusqu’aux recherches sur les « ICU » (ilots de chaleurs urbains observés dans les milieux urbanisés) se montrent très demandeuses et n’hésitent pas à se tourner vers nous pour leur fournir de la « bonne data-météo ».
Enfin, le troisième pilier, c’est la pédagogie. Nous avons repris en 2018, à nos frais et sans aucune subvention, l’initiative « Météo à l’École », qui avait été lancée en 2008 par le Ministère de l’Éducation Nationale avec Météo-France et l’Observatoire de Paris, mais qui a failli disparaître faute de budget à la fin du « Grand Emprunt ». L’objectif : sensibiliser de manière ludique les publics du primaire et du secondaire aux enjeux de la météo et du climat. Installer une station météo dans un collège permet de faire un peu de techno, traiter les données en faisant des maths, des stats et de l’informatique, et enfin les analyser pour parler climat et Système Terre.
Aujourd’hui, nous hébergeons les données des quelques 60 stations, ainsi que les contenus pédagogiques de Météo À l’École, permettant aux profs d’échanger entre eux.
Depuis de nombreuses années, nous complétons cela avec des interventions auprès des jeunes et moins jeunes, sous forme d’ateliers ou de journées à thème (« Rencontres Météo et Espace », « Nuit des Chercheurs », « Fête du Vent »,…), un peu partout en France selon la disponibilité de nos bénévoles !
Quelles valeurs défendez-vous ?
FA : La première de nos valeurs, c’est l’intérêt général ! Ce que nous avons conçu au cours de ces vingt dernières années n’appartient à personne, c’est un commun au service de tous, et pour certaines informations, c’est même le point de départ d’un cercle vertueux de réutilisation, par la libération des données en Open-Data.
Comme on l’a dit plus haut, le monde de la météo est un juteux business. Vous trouverez pléthore de sites et applis météo, et leur composante commune, c’est que ce sont des sociétés à but lucratif qui en font un business, sous couvert d’engagement citoyen et de « communauté ». Vous y postez vos données et vos photos, et ils en tirent en retour des revenus publicitaires, quand ils ne revendent pas les données météo à d’autres sociétés (qui les mâchouillent et en font de l’analyse pour d’autres secteurs d’activité).
Parmi les initiatives similaires, on peut citer parmi les plus connues « Weather Underground » (appartenant à IBM et destinée à alimenter Watson) ou encore « Awekas » (Gmbh allemande), « Windy » (société tchèque), « Météociel » (SAS française), qui sont des sociétés privées à plusieurs centaines de milliers ou quelques millions d’euros de CA. On notera d’ailleurs que toutes ces initiatives ont des sites souvent moins complets que le notre !
On se retrouve dans une situation parfois ubuesque : ces types de sociétés peuvent acheter des données payantes à l’établissement public Météo-France (pour quelques centaines de milliers d’euros par an), et les proposent ensuite à tous sur leur site web, rémunéré par la publicité ou par abonnement à des fonctionnalités « premium ». Alors qu’elles pourraient bénéficier à tous dans une base de données librement gérée comme celle d’Infoclimat, et aussi servir nos outils d’analyse du changement climatique ; il faut passer obligatoirement par les sites de ces sociétés privées pour bénéficier des données produites par l’établissement public… et donc en partie avec l’argent public. D’autres acteurs de notre communauté en faisant déjà echo il y a bien des années, et la situation n’a pas changé : https://blog.bacpluszero.com/2014/06/comment-jai-failli-faire-doubler-le.html.
SB : Notre force, c’est de pouvoir bénéficier d’une totale indépendance, grâce à nos adhérents, mécènes et donateurs. On a réalisé le site dont on a toujours rêvé, pas celui qui générera le plus de trafic possible pour en tirer un revenu. Les données des stations météo que nous finançons sont toutes placées sous licences ouvertes, et nos communications sont rigoureuses et factuelles plutôt que « putaclic » (ce qui nous vaut d’ailleurs une notoriété encore assez limitée chez le grand public, en dehors des photos de nos contributeurs reprises dans les bulletins météo de France TV notamment).
Trouvez-vous aussi votre indépendance vis-à-vis des GAFAM ?
FA : Cela reste encore perfectible : si nous croyons à notre indépendance et au respect des utilisateurs, il y aurait encore des reproches à nous faire. Nous mettons vraiment beaucoup en place pour respecter les données (qu’elles soient météo, personnelles, ou les droits des photographes), nous auto-hébergeons l’immense majorité des contenus (sur 12 serveurs dédiés OVH, du cloud Scaleway, et des machines gracieusement prêtées par Gandi, et même un NAS chez un administrateur fibré !), et essayons d’éviter les services tiers, et les fuyons au possible lorsqu’ils sont hébergés ou contrôlés à l’étranger. Mais tout n’est pas toujours si simple.
Par exemple, nous utilisions jusqu’à très récemment encore Google Analytics, par « simplicité » : tout notre historique depuis 2008 y est stocké, et une instance Matomo assez dimensionnée pour 150M de pages vues par an, ça veut dire gérer une nouvelle machine, et des coûts supplémentaires… pour une utilisation assez marginale, notre exploitation des statistiques étant très basique, puisque pas de publicités et pas de « conversions » ou « cibles d’audience »… Mais tout de même appréciée des bénévoles pour analyser la fréquentation et l’usage des rubriques du site. Il doit aussi traîner quelques polices de caractères hébergées par Google, mais tout le reste est 100% auto-hébergé et/ou « fait maison ».
Nous sommes aussi de gros consommateurs de contenus cartographiques, et proposons des interfaces de visualisation mondiales plutôt jolies (basées sur OpenLayers plutôt que GoogleMaps), mais qui nécessitent des extractions de données particulières (juste les villes, un modèle de terrain haute résolution, ou bien juste les rivières ou limites administratives). C’est un sujet qui peut aussi être vite difficile à gérer.
À une époque, on stockait donc une copie partielle de la base de données OpenStreetMap sur l’Europe, et je générais moi-même des carto avec Tilemill / Mapserver / Geowebcache et des styles personnalisés. Les ressources nécessaires pour faire ça étaient immenses (disque et CPU), la complexité technique était grande, et que dire quand il faut tenir toutes ces bases à jour. C’est un projet à lui tout seul, et on ne peut pas toujours réinventer la roue. Bref, pour le moment, nous utilisons les coûteux services de Mapbox.
Vous nous avez parlé de certaines limites dans votre travail bénévole, qu’est-ce qui vous pose problème ?
FA : Le problème majeur, c’est le développement web du site. La majorité de nos outils sont basés sur le site web : cartes, graphiques, statistiques climatiques, espaces d’échange, contenus pédagogiques, tout est numérique. Aujourd’hui, et depuis 13 ans, le développement et la maintenance du site et de ses serveurs repose sur un seul bénévole (moi !). Déjà, ce n’est pas soutenable humainement, mais c’est aussi assez dangereux.
La raison est simple : un logiciel avec 400.000 lignes de code, 12 serveurs, des technologies « compliquées » (formats de fichiers spécifiques à la météo, cartes interactives, milliards d’enregistrements, bases de données de plusieurs téraoctets,…), ce n’est pas à la portée du premier bénévole qui se pointe ! Et il faut aussi beaucoup d’accompagnement, ce qui est difficile à combiner avec la charge de travail existante.
Pour les plus geeks d’entre-vous, concrètement, voici les technos sur lesquelles sont basées nos plateformes : PHP (sans framework ni ORM !), Javascript/jQuery, OpenLayers, Leaflet, Highcharts, Materialize (CSS), pas mal de Python pour le traitement de données météo (Scipy/Numpy) du NGINX, et pour les spécifiques à notre monde, énormément de GDAL et mapserver, geowebcache, des outils loufoques comme NCL, des librairies pour lire et écrire des formats de fichiers dans tous les sens (BUFR, SYNOP, METAR, GRIB2, NetCDF).
Et bien sûr surtout MariaDB, en mode réplication (et bientôt on aura besoin d’un mode « cluster » pour scaler), des protocoles de passage de message (RabbitMQ, WebSockets), de l’ElasticSearch et SphinxSearch pour la recherche fulltext, et du Redis + Memcached pour les caches applicatifs.
Au niveau infra, évidemment de la gestion de firewall, de bannissement automatique des IP, un peu de répartition de charge, de l’IP-failover, un réseau dédié entre machines (« vRack » chez OVH), beaucoup de partages NFS ou de systèmes de fichiers distribués (GlusterFS, mais c’est compliqué à maintenir donc on essaie de migrer vers de l’Object-Storage type S3).
Et on a aussi une appli mobile Android en Java, et iOS en Swift, mais elles sont vieillissantes, fautes de moyens (leur développement a été sous-traité), et la majorité des fonctionnalités est de toutes façons destinée à être intégrée sur le site en mode « responsive design ».
Je passe sur la nécessité de s’interfacer avec des API externes (envois de mails, récupération de données météo sur des serveurs OpenData, parsing de données météo, API de la banque pour les paiements d’adhésions), des outils de gestion interne (Google Workspace, qui est « gratuit » pour les assos, hé oui !), des serveurs FTP et VPN pour connecter nos stations météo, un Gitlab auto-hébergé pour le ticketing et le code source …
SB : On a aussi des difficultés à dégager du temps pour d’autres actions : installer des stations météo par exemple, ce n’est pas négligeable. Il faut démarcher des propriétaires, obtenir des autorisations, parfois signer des conventions compliquées avec des collectivités locales, gérer des problématiques « Natura 2000 » ou « Bâtiments de France », aller sur site,… c’est assez complexe. Nous essayons de nous reposer au maximum sur notre communauté de bénévoles et adhérents pour nous y assister.
Quels sont vos besoins actuels ?
SB : Dans l’idéal, et pour venir en renfort de Frédéric, nous aurions besoin d’un développeur « full-stack » PHP à plein temps, et d’un DevOps pour pouvoir améliorer l’architecture de tout ça (qui n’est plus au goût des stacks technologiques modernes, et sent un peu trop l’année 2010 plutôt que 2022, ce qui rend la maintenance compliquée alors que le trafic web généré suppose de la perf’ et des optimisations à tous les niveaux).
Ce n’était pas immédiatement possible au vu des revenus de l’association, qui atteignaient environ 60.000€ en 2021, dont 15.000€ sont dépensés en frais de serveurs dédiés chez OVH (passer au tout-cloud coûte trop cher, en temps comme en argent,… mais gérer des serveurs aussi !).
FA : On développe aussi deux applis Android et iOS, qui reprennent les contenus du site dans un format simplifié, et surtout permettent de recevoir des alertes « push » selon les conditions météo, et d’afficher des widgets. Elles sont dans le même esprit que le site (pas de pubs, le moins de contenus tiers possibles), cependant ce sont des applis que l’on a sous-traité à un freelance, ce qui finit par coûter très cher. Nous réfléchissons à quelle direction donner à celles-ci, surtout au vu de l’essor de la version « responsive » de notre site.
Nous aimerions commencer à donner une direction européenne à notre plateforme, et la mettre à disposition des communautés d’autres pays. Il y a un gros travail de traduction, mais surtout de travaux techniques pour rendre les pages de notre site « traduisibles » dans différentes langues.
Vous ouvrez cette année un premier poste salarié, quelle a été votre démarche ?
SB : Dès lors, nous avions surtout un besoin intermédiaire, qui vise à faire progresser nos revenus. Pour cela, notre première marche sur l’escalier de la réussite, c’est de recruter un·e chargé·e de développement associatif, chargé d’épauler les bénévoles du Conseil d’Administration à trouver des fonds : mécènes et subventionneurs publics. Les sujets climat sont au cœur du débat public aujourd’hui, l’engagement citoyen aussi (on l’a vu avec CovidTracker !), nous y participons depuis 20 ans, mais sans savoir nous « vendre ».
FA : Cette première marche, nous l’avons franchie grâce à Gandi, dans le cadre de son programme « Gandi Soutient », qui nous a mis en relation avec vous, Framasoft. Vous êtes gentiment intervenus auprès de nos membres de Conseil d’Administration, et vous nous avez rassurés sur la capacité d’une petite association à se confronter aux monopoles commerciaux, en gardant ses valeurs fondatrices. Sans votre intervention, nous n’aurions probablement pas franchi le pas, du moins pas aussi vite !
SB : Cela va nous permettre de faire souffler une partie de nos bénévoles. Même si cela nous fait peur, car c’est une étape que nous n’osions pas franchir pour préserver nos valeurs, c’est avec une certaine fierté que nous pouvons aujourd’hui dire : « nous sommes une asso d’intérêt général, nous proposons un emploi au bénéfice de tous, et qui prend sa part dans la mobilisation contre le changement climatique, en en donnant des clés de compréhension aux citoyens ».
FA : La seconde étape, c’est recruter un⋅e dév’ web full-stack PHP/JS, quelqu’un qui n’aurait pas été impressionné par ma liste de technos évoquée précédemment ! Comme nous avons eu un soutien particulièrement fort de notre communauté en ce début d’année, et que notre trésorerie le permet, nous avons accéléré le mouvement, et la fiche de poste est d’ores-et-déjà disponible, pour un recrutement envisagé à l’été 2022.
Comment pouvons-nous soutenir Infoclimat, même sans s’y connaître en stations météo ?
FA : Pour celles et ceux qui en ont les moyens, ils peuvent nous soutenir financièrement : c’est le nerf de la guerre. Quelques euros sont déjà un beau geste ; et pour les entreprises qui utilisent quotidiennement nos données (on vous voit !), un soutien plus important permet à nos outils de continuer à exister. C’est par exemple le cas d’un de nos mécènes, la Compagnie Nationale du Rhône, qui produit de l’électricité hydroélectrique et éolienne, et est donc légitimement intéressée de soutenir une asso qui contribue au développement des données météo !
Pour cela, nous avons un dossier tout prêt pour expliquer le détail de nos actions auprès des décideurs. Pour aller plus loin, une seule adresse : association@infoclimat.fr
Et pour ceux qui veulent aussi s’investir, nous avons une page spécifique qui détaille le type de tâches bénévoles réalisables : https://www.infoclimat.fr/contribuer.
Ce n’est pas exhaustif, il y a bien d’autres moyens de nous épauler bénévolement, pour celles et ceux qui sont prêts à mettre les mains dans le cambouis : des webdesigners, développeurs aguerris, experts du traitement de données géographique, « datavizualisateurs », ou même des gens qui veulent faire de l’IA sur des séries de données pour en trouver les erreurs et biais : il y a d’infinies possibilités ! Je ne vous cacherai pas que le ticket d’entrée est assez élevé du point de vue de la technique, cela dit…
SB : Pour les autres, il reste l’énorme possibilité de participer au site en reportant des observations via le web ou l’appli mobile (une paire d’yeux suffit!) ainsi que des photos, ou… simplement nous faire connaître ! Une fois comprise la différence entre Infoclimat et tous les sites météo, dans le mode de fonctionnement et l’exploitation commerciale ou non des données, on comprend vite que notre association produit vraiment de la valeur au service des citoyens, sans simplement profiter des données des autres, sans apporter sa pierre à l’édifice, comme le font nonchalamment d’autres initiatives. Par ailleurs, nous avions pour projet d’avoir une page sur Wikipédia, refusée par manque de notoriété 🙁 . Idem pour la demande de certification du compte Twitter de l’Association, qui pourtant relaie de l’information vérifiée et montre son utilité lors des événements météo dangereux ou inhabituels, comme lors de l’éruption tout récente du volcan Hunga Tonga-Hunga Ha’apai sur les Iles Tonga qui a été détectée 15h plus tard et 17.000 km plus loin par nos stations météo lors du passage de l’onde de choc sur la métropole!
FA : Infoclimat, c’est un peu l’OpenFoodFacts du Yuka, l’OpenStreetMap du GoogleMaps, le PeerTube du YouTube, le Wikipédia de l’Encarta (pour les plus vieux)… et surtout une formidable communauté, que l’on en profite pour remercier ici !
On vous laisse maintenant le mot de la fin !
SB : Bien sûr, on aimerait remercier tous ceux qui ont permis à cette aventure de progresser : tous les bénévoles qui ont œuvré depuis 20 ans, tous les adhérent⋅e⋅s qui ont apporté leur pierre, nos mécènes et donateurs, ainsi que les passionnés qui alimentent le site et nous soutiennent depuis toutes ces années!
FA : Le soutien de Gandi et Framasoft a aussi été un déclencheur, et j’espère que cela pourra continuer à être fructueux, au service d’un monde meilleur et désintéressé. Des initiatives comme la notre montrent qu’être une asso, ça permet de produire autant voire plus de valeur que bien des start-up ou qu’un gros groupe qu’on voit passer dans le paysage météo. Et pourtant, nous sommes souvent bien moins soutenus, ou compris.
CLIC ! : une plateforme de coopération tout terrain
Fin novembre, des commoners (militant·e·s des communs), artistes, animateurs et animatrices de rues se sont retrouvé·e·s au Vigan (dans les Cévennes gardoises), pour travailler sur le #ProjetCLIC! (Contenus et Logiciels pour des Internets Conviviaux !), une plateforme numérique pour essaimer des pratiques numériques et coopératives, solidaires et émancipatrices grâce à des logiciels, ressources et formations librement partageables.
Que ce soit dans le secteur associatif, en entreprise, ou dans tout autre collectif, les besoins en outillage informatique sont prégnants. Les géants de l’Internet savent proposer des solutions qui paraissent convenir mais cela a un certain prix, que ce soit en termes monétaires ou d’abandon de notre vie privée. Heureusement, certaines initiatives, telles que celles portées par Framasoft et les CHATONS, permettent de répondre à ces besoins sans concession. Cependant, ces solutions nous font dépendre de tiers, qui doivent être de confiance, et elles sont limitées à la présence d’une connexion internet et à la capacité du tiers à maintenir son service en ligne. En outre, ces outils sont livrés « nus » : il nous faut alors les alimenter en contenus afin de partager nos savoirs et connaissances.
Comment permettre que ces contenus et outils soient facilement accessibles, utilisés et réutilisables dans tous les contextes, y compris les plus éloignés de l’Internet ?
La proposition de CLIC! est de s’auto-héberger (d’installer les services sur son matériel, chez soi) et d’avoir ses outils libres et contenus disponibles localement, et/ou sur le grand Internet avec un système technique pré-configuré. On vous explique.
L’interface de sélection des services dans CLIC!
Entre Chatons et PirateBox : CLIC!
CLIC! pourrait être vu comme un mix entre un CHATONS (hébergeur de logiciel et service libre) et une Piratebox (dispositif électronique accessible par wifi, permettant de partager des contenus libres) pour mettre l’auto-hébergement à la portée de toutes et tous.
Coté logiciel, CLIC! est une distribution Linux issue de Yunohost qui propose déjà des services et des contenus libres préinstallés. L’idée est de proposer en plus des contenus thématiques installables en un clic (fichiers multimédias, parcours pédagogiques, …)
Coté matériel, il pourrait s’installer sur différentes machines: le gros serveur dans un datacenter, un nano-ordinateur type Raspberry Pi, ou encore sur des « ordinosaures » (de vieilles tours d’ordinateurs ou d’anciens ordinateurs portables réutilisés).
Un schéma de Frédérique pour y voir plus clair (ou pas)
Une coding party pour faire avancer le projet
La semaine du 22 au 28 novembre 2021, un groupe éclectique de développeur·euses, facilitateur·rices, bricoleur·euses et artistes issu·es de divers horizons se sont retrouvé·es pour imaginer des usages, adapter l’ergonomie, travailler l’interface, réaliser des installations artistiques dans l’espace public et poursuivre les développements de la distribution CLIC!
Le groupe s’est retrouvé à la Fabrègue (la fabrique en occitan), un écolieu du Vigan associé à la ressourcerie locale.
Une vidéo timelapse pour voir l’ambiance et comment on collaborait
Appréhender ce que pourrait être un Internet low-tech
Qu’est-ce qu’un Internet low-tech ? Le simple fait de trouver une définition des concepts et de se mettre d’accord sur le degré d’autonomie souhaité est un vaste sujet !
De nombreuses personnes réfléchissent déjà au sujet. Notre approche est très concrète : comment faire du mieux avec les ressources à disposition près de chez nous (récupérer du vieux matos dans ses placards ou dans les ressourceries) et tester du matériel peu gourmand en énergie (comme un nano-ordinateur) pour s’auto-alimenter en électricité.
Voici les pistes explorées durant cette semaine au Vigan :
Alimentation autonome via panneaux solaires
Quelques tests ont été réalisés pour discuter des problématiques d’alimentation d’un petit ordinateur ARM avec une batterie lithium et un panneau solaire USB.
Une caractéristique importante des batteries est la puissance maximale qu’elles peuvent absorber quand on les charge. C’est ce qui permettra de déterminer s’il est possible de les recharger en une seule journée via un panneau solaire ou s’il faudra compter plusieurs jours de soleil pour une charge complète.
12b prend des mesures d’un Raspberry Pi sur batterie, avec un écran portable branché.
Récupération de batteries lithium d’anciens ordinateurs portables
Un beau travail a été mené pour détailler les opérations nécessaires pour récupérer des batteries depuis des vieilles batteries d’ordinateurs portables. Toutes les opérations sont détaillées dans un tutoriel accessible sur le wiki du Distrilab.
Les piles lithium rondes que l’on peut trouver dans les batteries d’ordinateurs portables
Réemploi de vieux ordinateurs (ordinosaures)
La délégation partie faire ses courses à la Ressourcerie du Pont pour faire le plein d’ordinosaures qui deviendront autant de kiosques autonomes mettant à disposition autant de services numériques que des livres électroniques ou des MOOCs
Hack-design
Des plasticien·nes locaux ont fait parler leur imagination pour créer de nouveaux looks pour différents usages :
Yeahman : un crieur de rue qui enregistrera des paroles publiques et les rediffusera, faisant office de jukebox actionnable par liens mp3 dans des QR-codes
Mouche à facette: un Raspberry Pi volant, avec des ailes en boule à facettes
Girafe rose : une statue de girafe en bois cachant un point d’accès wifi et un serveur CLIC!
Autre piste explorée : un lecteur d’annonces connecté au web par flux RSS, à base de raspberry pi zéro et écran e-ink (comme sur les liseuses d’e-book, l’écran noir et blanc continue d’afficher du contenu sans avoir besoin d’énergie)
Améliorer les outils pour permettre l’usage en local et déconnecté du grand internet
Nous avons profité de la présence d’éminents contributeur·ices Yunohost et Chatons, pour contribuer au code de projets libres. Ainsi :
Ljf a pu corriger des bugs du hotspot wifi dans Yunohost et faire en sorte qu’il propose les services du serveur CLIC même sans connexion internet ✨
Tobias a ajouté le support de Framemo dans le dépot d’applications de YunoHost. Il a également travaillé sur une app permettant de remonter des informations vers l’outil de statistiques des chatons
12b a créé des images Raspberry Pi et Odroid « clé en main » pour avoir un Yunohost avec des services installés, et une sélection de contenus de formations, de vidéos et de textes préinstallés, et accessibles en mode wifi « hotspot » local.
Penser les usages et les contenus pour être au plus proche des besoins des gens
Le temps nous a manqué pour réaliser tout ce que nous avions imaginé, en partie parce que nous avons pris du temps pour avoir des moments de restitution et d’échange avec les personnes en visite sur le lieu, ce qui fut riche !
Des graines de projets ont donc été semées et pousseront en 2022 :
une rubrique « Participation citoyenne » est apparue dans CLIC!, pour permettre d’effectuer des votes, des sondages et d’autres échanges locaux ;
initier les bénévoles de la ressourcerie à l’installation de ces kiosques sur des vieux ordinateurs et mettre la formation à disposition de toutes et tous ;
faire des tests utilisateur·ices en direct sur un marché avec un nano-ordi nomade et un kiosque à la ressourcerie.
Une affiche de présentation des bornes Recy’clic par Uto de R(d)évolution
Expérimenter de nouvelles manières de travailler ensemble
Se voir en vrai, vivre ensemble, prendre soin des besoins de toutes et tous, s’amuser, passer du bon temps entre et avec des personnes inspirant·es… Cette rencontre a provoqué une envie de continuer à travailler ensemble sur ce projet. Voici quelques ingrédients, que nous pouvons partager, pour des rencontres réussies :
Liberté de rythme et de présence : certains étaient là pour quelques jours, d’autres pour une semaine. Certains actifs tôt le matin, d’autres (et iels étaient nombreux⋅ses) tard dans la nuit.
Un lieu inspirant et des hôtes accueillant·e·s, merci R(d)évolution du Vigan!
Un cadre de travail mêlant grand repas auto-organisés, discussions enflammées, temps de travail collectif et présentation croisées des avancées
Des animateur·ice·s soucieux·ses de l’inclusion des participant·es, de nombreux points de synchronisation
Faire du commun, trouver du sens dans nos collaborations
Vous avez envie de participer au projet ? Vous pouvez nous contacter via notre formulaire de contact, et nous vous tiendrons informé·es de nos prochains petits pas, et rencontres!
Le mot de la fin
Comme d’habitude sur le framablog, un petit mot des participant·es pour conclure :
ljf : Il reste de nombreux défis à relever pour proposer de l’auto-hébergement facile, itinérant et déconnectable, cette résidence était un pas de plus, longue vie au projet CLIC! et merci aux habitant⋅es de la Fabrègue et à leur énergie inspirante.
12b : De belles rencontres et un projet inspirant. On continue en 2022!
Simon : Une chouette rencontre avec une belle diversité et plein d’idées, vivement la suite !
Tobias : Une rencontre hors du temps qui crée autant de code que d’idées et de liens entre les personnes.
Frédéric : Une belle parenthèse pour moi qui cours toujours après le temps et de super rencontres! Ce fut un vrai moment de bonheur de pouvoir participer au développement de cette solution. Merci à tous·tes
Christian : un chouette moment d’échange, pour découvrir, expérimenter, tester et discuter. Un grand merci aux organisateurs.
Lilian : Il y a encore du travail pour que cela soit accessible à tous·tes, mais un énorme potentiel pour permettre à chacun·e d’avoir facilement accès à des outils éthiques.
Ulysse : Une très belle aventure, qui va essaimer, et pas forcément là où on l’imagine, et c’est ça qui est beau !
Florian: merci Framasoft de nous avoir soutenus dans cette démarche et au plaisir de vous voir à notre prochain sprint IRL avec ce super groupe <3
Mathieu : un dispositif dont ritimo rêvait depuis de nombreuses années, qui est en train d’aboutir avec les précieuses contributions de chouettes personnes, et un soutien extra de Framasoft : la recette pour créer du lien, de l’interconnaissance, de la confiance – et construire ensemble du commun !
Crédit photos et vidéos : 12b Fabrice Bellamy – licence CC BY SA
Les Métacartes « Numérique Éthique » : une boîte à outils pour s’émanciper
Faire le point sur son utilisation du numérique et améliorer ses pratiques : mais par où commencer ? Les Métacartes « Numérique Éthique » permettent d’accompagner ces réflexions, de se poser des questions pertinentes et d’évaluer ses priorités.
Pour animer leurs formations, Mélanie et Lilian (facilitateur⋅ices et formateur⋅ices, notamment dansAnimacoop), ont souhaité expérimenter un nouveau format facilement transportable, utilisable à plusieurs et dans l’espace. Iels ont ainsi créé les Métacartes (sous licence CC BY-SA), un jeu réel où chaque carte est reliée à une ressource en ligne régulièrement actualisée. Cela permet d’avoir un contenu à jour et non-obsolète (particulièrement intéressant dans le domaine du numérique). Framasoft avait souhaité soutenir leur initiative pleine de sens, nous vous en parlions sur le Framablog dans cet article.
Nous voulons maintenant vous aider à prendre les cartes en main pour facilement utiliser le jeu. Pour illustrer nos propos, nous allons prendre l’exemple d’un collectif qui souhaite questionner ses usages numériques : l’orchestre universitaire de l’Université Populaire Libre Ouverte Autonome et Décentralisée (que nous écrirons pour simplifier la lecture : l’orchestre UPLOAD).
Utiliser les cartes selon vos besoins
Pour commencer à utiliser les cartes, il est important de comprendre qu’il y a de nombreuses façons de les aborder et tout va dépendre du contexte général dans lequel vous vous trouvez. Vos valeurs sont-elles bien définies ? Les outils internes actuellement utilisés posent-ils des problèmes particuliers ? Les Métacartes peuvent ainsi être vues comme une boîte à outils sous forme de cartes : vous utiliserez une partie des outils, selon vos besoins, afin de faciliter un passage à l’action.
Les cartes « Ingrédients » : définir vos priorités
Les cartes « Ingrédients » sont les cartes violettes du jeu. Celles-ci présentent des éléments clés à prendre en compte pour vos réflexions. Elles comportent deux sous catégories : #critère et #usage.
Les cartes #critère pour affirmer vos valeurs
Une entrée par les cartes #critère est intéressante pour approfondir votre éthique et vos valeurs. En parcourant l’ensemble des cartes #critère, vous pouvez sélectionner 3 à 5 critères qui vous semblent les plus importants. Vous allez ainsi prioriser les critères à prendre en compte lors du choix d’un outil.
Les membres de l’orchestre UPLOAD ont ainsi choisit trois critères à prioriser dans l’évaluation de leurs outils actuels et/ou dans la recherche d’alternatives :
Logiciel libre : l’orchestre prône depuis sa création la mise sous licence libres d’œuvres musicales. Utiliser des logiciels libres est donc un choix essentiel pour le groupe, pour être en accord avec ses valeurs ;
Facilité de changement : les musicien⋅nes préfèrent de loin jouer de la musique plutôt que de passer des heures à changer leurs pratiques. Il faudra s’informer sur la facilité de migration et de prise en main des outils pour ne pas frustrer le groupe ;
Interopérabilité : il est essentiel pour les membres de l’orchestre de pouvoir partager du contenu sans avoir à penser à qui utilise quel logiciel. L’interopérabilité sera donc essentielle, pour que différents outils puissent communiquer entre eux.
Les cartes #usage pour identifier vos besoins concrets
Les cartes #usage permettent de définir les besoins réels en terme d’outils numériques. Vous pouvez ainsi commencer à sélectionner les cartes représentant vos besoins réguliers. Cette étape va permettre de démêler les outils numériques actuellement utilisés, de les nommer et de les questionner. Cet outil est-il en accord avec vos critères préalablement établis ? Ou voulez-vous le changer ? Les cartes #usage proposent justement des alternatives sur les ressources en ligne : une bonne manière de rapidement trouver des solutions !
L’orchestre UPLOAD a ainsi choisi les cartes #usage suivantes :
Diffusion d’information : diffusion d’info toutes les semaines aux membres de l’orchestre sur l’organisation interne (répétitions, week-ends, déroulé des concerts…)
Actuellement utilisé : envois par mail à tous les membres de l’asso.
OK avec les critères définis ? Non, le logiciel mail utilisé n’est pas libre.
Alternative : utiliser par exemple une liste de diffusion avant de penser à changer d’hébergeur de mail (moins contraignant pour commencer).
Les outils à garder et à changer sont ainsi définis. Le groupe a pris le temps de questionner pourquoi garder ou changer chaque outil. Les alternatives ont été proposées, il faudra maintenant les mettre en place et les tester.
Les cartes « Recettes » : des méthodes d’animation
Les cartes jaunes ou cartes « Recettes », proposent des idées d’animation pour amorcer des réflexions et sensibiliser sur certaines pratiques numériques. Elles peuvent demander plus ou moins de préparation pour l’animation (le niveau indiqué sur la carte, de 1 à 3).
Exemple de la carte « Vous êtes ici »
La carte « Vous êtes ici » est associée à une trame graphique en ligne pour voir où vous en êtes sur votre parcours vers un numérique éthique. Le chemin va appeler d’autres cartes du jeu pour avoir des réflexions approfondies, et comprendre dans quelle direction vous allez.
L’orchestre UPLOAD s’est positionné sur cette image sur l’étape « Faire le point » : la prise de conscience des enjeux a amené le groupe à agir pour changer ses pratiques !
Soutenir le projet
Ça leur a plu !
Dans un atelier avec ses étudiant⋅es de l’UTC, Stéphane Crozat nous partage son point de vue : « J’ai eu un ressenti positif en tant que prof, les étudiant⋅es faisaient ce que j’attendais. Iels souriaient, riaient, avaient l’air de prendre plaisir à l’exo. L’éval des étudiant·es est bonne. » (leurs commentaires sont ici).
Dans le cadre d’une formation pour des des conseiller⋅es numériques, Julie Brillet, bibliothécaire, formatrice et facilitatrice a exprimé sur Twitter « que les métacartes étaient vraiment un outil adapté, notamment comme porte d’entrée au site metacartes.cc qui comprend plein de contenus. »
La recherche et ses publications : le long chemin vers un libre accès
« Si la recherche universitaire est financée par des fonds publics, il n’y a aucune raison pour que ses publications soient privées ». Et pourtant…
La diffusion des publications universitaires dépend le plus souvent d’éditeurs qui tirent profit de situations de quasi-monopole en imposant une sorte de péage.
Pour échapper à ce contrôle marchand qui rend inaccessible l’accès aux connaissances à une part importante de la communauté scientifique mondiale, un nombre significatif de chercheuses et chercheurs désirent rendre le fruit de leur travail intellectuel disponible en Open Access.
La lutte pour le partage des connaissances est déjà ancienne. Retour rapide…
Il y a un peu plus de 10 ans maintenant, Aaron Swartz subissait la pression de poursuites judiciaires, qui allait le mener au suicide, pour avoir téléchargé et mis à disposition gratuitement 4,8 millions d’articles scientifiques de JSTOR, une plateforme de publication universitaire payante. Aaron Swartz était partisan d’un libre accès aux connaissances scientifiques, levier d’émancipation et de justice.
C’est à peu près à la même époque qu’Alexandra Elbakyan a lancé Sci-Hub, animée du même désir de donner un large accès aux publications universitaires à tous ceux qui comme elle, n’avaient pas les moyens d’acquitter le péage imposé par des éditeurs comme la multinationale Elsevier.
Une large majorité de chercheurs, en France comme dans le monde entier, est favorable à l’accès libre à leurs publications. Citons par exemple Céline Barthonnat, éditrice au CNRS :
la diffusion du savoir scientifique fait partie du travail des personnels de la recherche [article L411-1 du code de la recherche]. Beaucoup de ces recherches qui sont financées par l’argent public sont diffusées ensuite par ces éditeurs prédateurs”.
Le billet de Glyn Moody que Framalang a traduit pour vous marque peut-être une étape dans ce long combat où la volonté de partager les connaissances se heurte constamment aux logiques propriétaires mercantiles qui veulent faire de la circulation des publications scientifiques un marché lucratif.
Glyn Moody indique ici qu’il existe désormais une possibilité pour que les auteurs et autrices de « papiers » scientifiques puissent conserver leur droit de publication et en permettre le libre accès.
Il y a quelques semaines, nous nous demandions si les éditeurs universitaires essaieraient de faire supprimer l’extraordinaire Index général des publications scientifiques créé par Carl Malamud. Il existe un précédent de ce genre de poursuites judiciaires contre un service du plus grand intérêt pour la société. Depuis 2015, les éditeurs essaient de faire taire Sci-Hub, qui propose près de 90 millions de publications universitaires. Le motif de leur plainte : Sci-Hub viole leurs droits d’auteur2
C’est étrange, car d’après la loi, les droits d’auteur de la vaste majorité de ces 90 millions de publications sont détenus par les chercheur·euse·s qui les ont rédigées.
Et la majorité de ces chercheur·euse·s approuve Sci-Hub, comme l’a clairement montré une étude menée en 2016 par le magazine Science :
Il est probable que l’échantillon retenu pour le sondage soit biaisé par une surreprésentation des fans du site : près de 60 % des personnes interrogées disent avoir déjà utilisé Sci-Hub, et un quart le font quotidiennement ou chaque semaine. De sorte qu’on ne s’étonnera guère si 88 % d’entre elles déclarent ne rien voir de mal dans le téléchargement de publications piratées. Mais notez bien, éditeurs universitaires, que ce ne sont pas seulement des jeunes et de grands utilisateurs de Sci-Hub qui voient les choses ainsi. Un examen plus attentif des données du sondage indiquait que les personnes interrogées de toutes les catégories soutiennent la fronde, même celles qui n’ont jamais utilisé Sci-Hub ou celles âgées de plus de 50 ans – respectivement 84 % et 79 % – n’avaient aucun scrupule à le faire.
Alors, si la plupart des chercheur·euse·s n’ont aucun problème avec Sci-Hub, et l’utilisent eux-mêmes, pourquoi le site est-il poursuivi par les éditeurs ? La réponse à cette question révèle un problème clé crucial, celui des tentatives en cours pour rendre les savoirs universitaires librement accessibles, par le biais de l’open access.
Théoriquement, les chercheur·euse·s peuvent diffuser leurs publications sous une licence Creative Commons, ce qui permet de les lire et de les reproduire librement, et de se baser facilement sur ce travail. En réalité, les auteurs sont souvent « incités » à céder leurs droits aux éditeurs de la revue où apparaît la publication, ce qui conditionne l’accès aux connaissances derrière à des paiements onéreux. Ce n’est pas indispensable, c’est seulement ce qui est devenu habituel. Mais les conséquences en sont importantes. D’abord, les auteurs originaux deviennent réticents à partager leurs articles, parce qu’ils sont « sous copyright », comme le mentionne un précédent article (en anglais) de ce blog. Ensuite, si les droits sont transférés des auteurs vers les éditeurs, alors ces derniers peuvent poursuivre en justice les sites comme Sci-Hub, sans tenir compte de l’avis des chercheur⋅euse⋅s.
La bonne nouvelle, c’est qu’il existe maintenant des efforts coordonnés pour éviter ces problèmes grâce à « la rétention des droits ». Tout en garantissant aux éditeurs le droit de diffuser un article dans leur publication, les auteurs et autrices conservent aussi certains droits pour permettre le libre partage de leurs articles, et leur utilisation par des sites comme Sci-Hub. Un des chefs de file de cette initiative est cOAlition S, un groupe d’organisations de financement de la recherche, avec le soutien de la Commission européenne et du Conseil Européen de la Recherche. Les principes essentiels du « Plan S » de la Coalition précisent :
À compter de 2021, toutes les publications universitaires dont les résultats de recherche sont financés via des fonds publics ou privés au travers d’institutions nationales, continentales, régionales ou internationales, doivent être publiées dans des revues ou sur des plateformes en libre accès, ou bien encore être immédiatement disponibles sur un répertoire en libre accès, et ce sans aucune restriction.
L’un des points-clés de ce Plan S est le suivant :
Les auteurs et autrices ou leurs institutions gardent les droits sur leurs publications. Toute publication doit être placée sous licence ouverte, de préférence la licence Creative Commons Attribution (CC BY).
Ça semble fonctionner. Un récent article de Ross Mounce mettait en évidence le fait suivant :
En tant que personne indépendante de la cOAlition S, j’ai pu observer avec grand intérêt la mise en application de la stratégie de rétention des droits. En utilisant Google Scholar et Paperpile, j’ai relevé plus de 500 papiers publiés sur des centaines de supports différents qui utilisaient la référence à la stratégie de rétention des droits dans les remerciements.
Les auteurs s’en servent pour conserver leurs droits sur les prépublications, les articles de revues, les supports de conférences, les chapitres de livres et même des posters sur les affiches, c’est tout à fait logique. La stratégie est rédigée en termes simples et elle est facile à ajouter à des résultats de recherche. Il est aisé de mentionner ses sources de financement des recherches et d’ajouter ce paragraphe : « Afin de maintenir un accès libre, l’auteur⸱ice a appliqué la licence de libre diffusion CC BY à toute version finale évaluée par les pairs découlant de la présente soumission », et donc les autrices et auteurs le font.
Comme souligné ci-dessus, il suffit donc aux chercheur·euse·s d’ajouter la brève mention qui suit à leurs articles pour conserver leurs droits fondamentaux :
« Afin de maintenir un accès libre, l’auteur⸱ice a appliqué la licence de libre diffusion CC BY à toute version finale évaluée par les pairs découlant de cette la présente soumission. »
C’est un si petit pas pour un⸱e chercheur⸱euse, mais un tel pas de géant pour faciliter l’accès universel à la connaissance, que toutes et tous devraient le faire naturellement.
Ce billet de Glyn Moody est sous licence CC BY 4.0
Ce que Framasoft pourrait faire en 2022, grâce à vos dons
« Iels sont bien gentil⋅les à Framasoft, mais pourquoi est-ce que je devrais leur faire un don ? ».
C’est une bonne question, et on vous remercie (sincèrement, oui oui) de l’avoir posée 🙂
D’abord parce que cette question est tout à fait légitime. Votre argent est précieux, et l’incertitude face à l’avenir mérite qu’il soit dépensé ou investi utilement.
Ensuite parce que Framasoft est une association qui ne peut agir que grâce à vos dons. Nous vous devons donc le maximum de transparence quant à nos actions menées et à venir. Vos dons viennent à la fois récompenser le travail effectué, mais aussi encourager les projets futurs.
Depuis le 12 octobre, nous vous présentons un panel de ce que Framasoft a réalisé ces derniers mois, grâce à vos dons.
« Frama, c’est pas que… »Pour l’automne 2021, chaque semaine, nous voulons vous faire découvrir un nouveau pan des actions menées par Framasoft. Ces actions étant financées par vos dons (défiscalisables à 66 %), vous pouvez en trouver un résumé complet, sous forme de cartes à découvrir et à cliquer, sur le site Soutenir Framasoft.
Illustrée sous la forme de cartes, cette campagne rappelle que Framasoft, ça n’est pas que Framapad, Framadate, PeerTube ou Mobilizon. Mais bien plusieurs dizaines de projets en parallèle, avançant chacun à leur rythme, tous dans la même direction : vous redonner du pouvoir sur le numérique.
Par contre, ce que cette campagne ne vous a pas encore révélé, c’est ce que nous comptons faire en 2022, si vous nous en donnez les moyens.
Ce sont ces intentions que nous souhaitons vous présenter ci-dessous.
Framasoft et les associations
Tout d’abord, et c’est sans doute l’un des principaux points, nous souhaitons vous dévoiler en 2022 un nouvel axe d’actions, qui se prolongera donc sur plusieurs années.
Nous l’exprimions il y a déjà plusieurs années, « Dégoogliser ne suffit pas ». Notre vision, résolument politique, d’un numérique émancipateur, ne peut exister et n’aurait pas de sens en dehors d’autres luttes. Les combats pour plus de justice et d’égalité, donc moins de monopoles et de dominations, s’entrecroisent, se rejoignent et se complètent.
« Pas de société libre sans logiciel libre » est, pour nous, une conviction. Mais cela ne signifie pas qu’une société où le logiciel libre aurait « gagné » suffirait à fournir les conditions d’une société libre.
À Framasoft, nous faisons attention à ne pas (trop) nous épuiser, à éviter le burnout militant. Nous faisons donc le choix d’agir essentiellement là où nous nous sentons fortes et forts : le numérique. Mais cela ne signifie pas que nous ignorons les autres luttes.
Or, l’un des soucis que nous identifions, c’est que celles et ceux qui agissent « pour un monde meilleur » le font souvent dans des milieux associatifs qui disposent de peu de moyens, avec des cultures numériques hétérogènes, et utilisent massivement les outils des GAFAM (qui sont fort efficaces, il faut le reconnaître).
Nous souhaitons donc amorcer en 2022 un ensemble de projets s’adressant particulièrement aux publics associatifs, militants, ou œuvrant pour le progrès social et la justice sociale.
Nextcloud, une suite logicielle pour outiller les assos
Cela fait plusieurs années qu’on tourne autour, nous l’évoquions en 2019, puis 2020, mais clairement la pandémie a limité l’énergie que nous pouvions mettre sur ce projet.
Nextcloud, dont la version 23 vient tout juste de sortir, est un excellente suite logicielle permettant de gérer fichiers, agendas, contacts, rédaction collaborative, etc. Cependant, beaucoup d’associations utilisent Google Docs, Dropbox & co. D’abord, parce que Nextcloud est peu connu (normal, les moyens marketing ne sont pas les mêmes). Ensuite parce que Nextcloud a une ergonomie souvent perfectible (par exemple, partager un fichier n’est pas évident, alors que c’est tout de même une fonctionnalité de base). Enfin, trouver le « bon » prestataire pour vous proposer une instance Nextcloud fiable et correspondant à vos besoins et vos moyens reste relativement complexe (même si de nombreux chatons proposent ce service. Coucou les ami⋅es de IndieHosters ou de Zaclys 👋)
Nous voulons donc, en 2022, travailler à rendre Nextcloud plus simple et plus accessible pour toutes et tous. À la fois en améliorant le logiciel, mais aussi sa notoriété ou sa documentation. Enfin, nous nous efforcerons de proposer une offre spécialement destinée aux associations.
Ce projet est né d’un constat partagé avec nos partenaires et ami⋅es d’Animafac : même si de plus en plus d’organisations prennent conscience de la nécessité de mettre en cohérence leurs outils numériques avec leurs valeurs, elles ont peu d’énergie et de compétences en interne pour se lancer dans une telle démarche. À ceci s’ajoute le constat que peu de structures sont actuellement en mesure de réellement guider et orienter les associations dans leur transition numérique libre.
Le projet Émancip’Asso a pour principal objectif de proposer aux associations des acteurs en mesure de les accompagner dans leur démarche de « dégafamisation ».
Nous souhaitons ainsi offrir un programme de formation aux acteurs qui proposent aux associations des services et accompagnements spécifiques. Cela afin que ces structures soient en mesure d’identifier les besoins d’une organisation pour les prendre en charge en intégralité, qu’il s’agisse d’hébergement, d’infogérance, d’installation de logiciels libres particuliers ou d’assurer un support technique ou des formations.
Cela va nous demander du temps et de l’énergie, mais nous sommes convaincu⋅es que l’offre d’accompagnement professionnel est l’un des angles morts du libre associatif, et qu’il faut multiplier et renforcer les acteurs capables de satisfaire ce besoin.
Faire un don à Framasoft, c’est nous aider à accompagner les accompagnateur⋅ices à la dégooglisation des associations.
Un observatoire sur les pratiques numériques libres
La mission de cet observatoire sera d’étudier les évolutions des usages numériques des associations.
Par le biais d’enquêtes, d’analyses (en y associant autant que possible des usager⋅es, des designers, des chercheur⋅euses, des partenaires associatifs, etc), nous souhaitons mieux comprendre les outils, les habitudes, les expériences des personnes qui utilisent le logiciel libre. Ou mieux comprendre pourquoi elles ne l’utilisent pas !
En effet, pour répondre avec pertinence aux besoins des deux projets précédents, nous avons besoin de qualifier et de quantifier aussi objectivement que possible quels sont les logiciels libres utilisés, pour quelles raisons, avec quelles frictions, etc. Bref, qu’est-ce qui « marche » ? Qu’est-ce qui ne « marche pas » ? Et surtout, pourquoi ?
Faire un don à Framasoft, c’est aider à éclairer et enrichir notre compréhension des pratiques associatives libres.
PeerTube v5
La version 4 de PeerTube est à peine sortie du four, que nous vous annonçons déjà notre volonté de travailler sur PeerTube v5 !
Dans cette version, nous souhaitons avant tout nous attacher à résoudre certains points de frustration et améliorer l’utilisabilité, notamment sur les formulaires d’upload de vidéos et d’inscription des utilisateur⋅ices.
Mais nous souhaitons aussi donner plus de maîtrise aux gestionnaires d’instances comme aux vidéastes. Que cela soit en leur permettant plus d’actions par lots (par exemple en permettant le déplacement d’un ensemble de vidéos vers une autre chaîne) ou en affinant les outils de gestion de fichiers (par exemple supprimer une définition d’une vidéo).
Si nous parvenons à faire financer cette fonctionnalité, nous voudrions aussi proposer un outil permettant d’éditer (de façon basique) des vidéos. Cela permettrait, par exemple, aux vidéastes de couper quelques secondes en début ou fin de vidéo directement dans PeerTube.
Enfin, nous désirons aussi améliorer les capacités de synchronisation entre YouTube et PeerTube. Cette possibilité existe déjà, mais uniquement en ligne de commande. Nous voulons donc proposer une interface au sein de PeerTube, qui permettrait, par exemple, de répliquer automatiquement l’intégralité des vidéos d’une chaîne YouTube vers une chaîne PeerTube.
Faire un don à Framasoft, c’est soutenir le développement d’une alternative libre, décentralisée et fédérée à YouTube, pour reprendre le pouvoir sur vos vidéos.
Mobilizon v3
Mobilizon, comme PeerTube, vient tout juste de bénéficier d’une nouvelle mise à jour. Et nous comptons bien vous en proposer une nouvelle version majeure en 2022.
Pour vous donner un petit aperçu du programme : développement d’un outil de recherche global multi-instances, sur le modèle de SepiaSearch ; refonte de la page d’accueil de l’instance ; création d’une toute nouvelle vue « Carte » permettant de visualiser et chercher les événements de façon géographique ; outil d’importation depuis Meetup et Facebook ; et bien d’autres choses !
Faire un don à Framasoft, c’est favoriser l’émergence d’une alternative aux événements et groupes Facebook, éthique et respectueuse de votre vie privée.
Un Framanifeste pour affirmer nos choix
Framasoft travaille, en pointillés depuis 2019, sur la rédaction de son manifeste.
En 2022, nous souhaitons achever ce travail et publier ce texte important non seulement pour nous, mais aussi pour vous, puisqu’il clarifie la raison d’être de l’association. Il définira aussi le cadre de nos actions et les valeurs qui fondent notre identité.
Faire un don à Framasoft, c’est soutenir plusieurs dizaines de projets portés par une association aux multiples facettes techniques, politiques, exploratoires.
Faire collectif : les CHATONS
Le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires compte aujourd’hui une centaine de structures réparties sur le territoire français, avec des membres en Belgique, au Québec et en Suisse. Framasoft assure la coordination et l’animation du collectif depuis sa création fin 2016 (avec une salariée qui y consacre environ 30% de son temps de travail).
En 2022, nous souhaitons lancer une réflexion sur les objectifs que se donne le collectif et les moyens pour y parvenir. Cela passera notamment par l’organisation d’un nouveau camp CHATONS à l’été 2022, et par la poursuite de notre travail de « déframasoftisation » de la coordination du collectif.
Par ailleurs, les contenus produits et captés lors de la formation Émancip’Asso permettront aussi de préparer le travail pour un second module du MOOC CHATONS, afin de faciliter les naissances de chatons solides sur leurs pattes et autonomes face à leurs publics.
Faire un don à Framasoft, c’est permettre la création, la consolidation et la mise en réseau de structures proposant des services web répondant à des critères éthiques forts.
Partager savoirs et connaissances : UPLOAD
UPLOAD, c’est notre proposition de coconstruire avec vous une Université Populaire Libre, Ouverte, Autonome et Décentralisée.
De mois en mois, nous affinons les contours de ce projet. Déjà préfigurées par le MOOC CHATONS, des Librecours ou du podcast UPLOAD, toutes ces expérimentations illustrent notre envie de partager le savoir, et la capacitation qui va de pair avec l’acquisition de savoirs.
Faire un don à Framasoft, c’est concourir à inventer de nouveaux espaces de partage de connaissances.
Des Livres en Communs
La maison d’édition Framabook est née en 2006; 16 ans plus tard, nous souhaitons la faire évoluer.
Des Livres en Communs (ce sera le nouveau nom de Framabook) a pour intention de se concentrer sur la création et la production de communs culturels.
Depuis plus de deux cents ans, l’édition place les auteurs et autrices en situation de subordination économique, s’arrogeant de fait tous les droits patrimoniaux et n’octroyant un revenu aux auteurs et autrices qu’en consacrant une rente liée à cette propriété, privant le public de tout accès non rémunéré ou rémunérateur au fruit du travail des auteurs et autrices. Ces derniers produisent donc un capital qui ne participe à l’avancement culturel que parce qu’il peut être exploité en tant que valeur marchande monétisée. Cela transforme l’objet culturel en produit industriel comme un autre, balayant la pertinence de ses usages sociaux.
La grande particularité de cette nouvelle maison d’édition sera de reconnaître la réalité de ce travail en amont, en le rémunérant directement par une bourse d’écriture versée aux auteur⋅ices pour reconnaître plus équitablement leur travail de création.
Faire un don à Framasoft, c’est soutenir des créateurs et créatrices d’œuvres mises à disposition sous forme de communs culturels.
Soutiens à la culture, au libre et aux communs
Nous l’exposions il y a peu, nous participons activement à un certain nombre de projets en dehors de Framasoft.
Par exemple, nous soutenons (financièrement ou humainement) des projets de développement informatique tels que la plateforme de pétitions Pytition, le logiciel de comptabilisation du bénévolat valorisé Bénévalibre, l’application pour smartphone PeerTube Live, ou le plugin PeerTube Live Chat.
Nous accompagnons aussi l’émancipation de certains de nos logiciels, tels que Framadate ou Framaforms/Yakforms afin d’en faire, au-delà de simples logiciels libres, de véritables communs.
Nous souhaitons aussi rouvrir un chantier de « dépoussièrage » de MyPads, notre plugin permettant d’organiser vos pads. Nous hébergeons plus de 230 000 utilisateur⋅ices et 300 000 pads sur https://mypads.framapad.org et ce nombre ne cesse de grandir. Il nous parait donc urgent et important de corriger quelques frictions pénibles.
Mais notre soutien ne se limite pas au code.
Nous consacrons aussi du temps à conseiller nombre d’associations ou collectifs en répondant à leurs questions diverses et variées sur le numérique ou le fonctionnement associatif. Contribateliers, Réseau Infoclimat, l’atelier paysan, Exodus Privacy, Contribulle ne sont que quelques exemples de structures que nous accompagnons ponctuellement ou au long cours.
Nous cofinançons et participons activement aux travaux de recherche d’Audrey Guélou, doctorante à l’UTC, dont le sujet de thèse est « Configurations techno-éthiques pour les médias sociaux décentralisés et fédérés », afin de mieux comprendre ce nouveau territoire qu’est le Fediverse.
En 2022, nous poursuivrons aussi notre participation au collectif « La Coalition – Libertés associatives » qui s’est fixé pour mission de proposer des stratégies de riposte contre les répressions subies par le secteur associatif.
Faire un don à Framasoft, c’est participer au soutien et à la consolidation d’initiatives extérieures à Framasoft, mais aux valeurs alignées avec celles de l’association.
Organisation de rencontres
La situation sanitaire actuelle (oui, la pandémie mondiale, c’est à toi qu’on s’adresse) rend plus difficile le fait de se rencontrer physiquement. Or c’est souvent lors de ces rencontres que les liens se tissent et se renforcent, que les envies s’expriment, que les mobilisations s’inventent. Sans elles, certains projets ont plus de mal à avancer, et surtout la motivation a tendance à stagner, si ce n’est disparaître.
Il ne s’agit pas d’organiser une rencontre estampillée « Framasoft », ou un défilé de conférencier⋅es. Mais bien de proposer des espaces d’échanges, de face-à-face, de dialogue.
Nous souhaitons créer de nouveaux espaces de rencontres physiques, pour faciliter les points de contacts entre des acteur⋅ices aux compétences différentes et aux vécus singuliers : des personnes du libre, mais aussi de l’éducation populaire, de la solidarité, de la redirection écologique, de la médiation numérique, etc. Nos mondes ne se parlent que très peu, et nous passons à côté d’occasions de nous écouter, de nous comprendre, de faire les choses ensemble.
Faire un don à Framasoft, c’est se donner une chance supplémentaire de « croiser les flux » entre différents mouvements et d’élargir les capacités de mobilisations.
Nous avons besoin de sous, et donc de vous !
Vous l’aurez compris, les graines que nous voulons planter en 2022 sont nombreuses, et nos ambitions sont grandes au regard de la petite taille de l’association.
Pour avancer, nous avons besoin de moyens financiers, et nous espérons que les (bientôt) 20 ans d’actions de l’association tendent à démontrer que, lorsqu’on nous en donne les moyens, les souhaits que nous exprimons peuvent devenir, pour vous, une réalité.