1

Infoclimat : un commun météorologique et climatologique à préserver !

Infoclimat est une association de passionné·es de météo, qui agit pour favoriser et vulgariser l’échange de données et de connaissances autour de la météo et du climat.
Nous baignons dans les mêmes eaux et partageons les mêmes valeurs : les communs culturels doivent être ouverts à toutes et tous pour l’intérêt général !
L’association va fêter ses 20 ans et se lancer dans un nouveau projet : le recrutement de son·sa premier·ère salarié·e. C’est l’occasion de donner la parole à Frédéric Ameye et Sébastien Brana, tous deux bénévoles.

Bonjour Frédéric et Sébastien, pouvez-vous vous présenter ?

Frédéric Ameye (FA), 27 ans, je suis ingénieur dans les systèmes embarqués pendant les heures ouvrables… et en-dehors de ça, je suis depuis longtemps « Linuxien » et (modeste) défenseur du logiciel libre, mais aussi de l’égalité des chances à l’école — issu d’une famille ouvrière très modeste, c’est quelque chose qui me tient beaucoup à cœur. Le reste du temps (quand il en reste), vous me trouverez principalement en rando au fin fond de la montagne…

J’ai intégré l’aventure Infoclimat en 2009 (j’avais alors 15 ans), période à laquelle j’ai « refondu » le site web de l’asso à partir de l’ordinateur familial à écran cathodique, que je monopolisais des dizaines d’heures par semaine, jusqu’à très tard dans la nuit. J’ai continué ce rôle jusqu’à aujourd’hui (avec un écran plat, et moins d’heures dans la nuit car la trentaine arrive vite). Entre-temps, j’ai rejoint le Conseil d’Administration, et je suis ensuite devenu Vice-Président en 2015.

Sébastien Brana (SB), 42 ans. Dans la vie « hors Infoclimat », je suis chef de projet informatique à la Direction générale des finances publiques… et comme Frédéric, en dehors de « ça », j’occupe une grande partie de mon temps libre (soirées, week-end et congés) au profit du site et de l’association que j’ai rejoint en 2005 et dont je suis également Vice-Président depuis 12 ans. Au-delà des phénomènes météo (orages et chutes de neige notamment) qui m’ont toujours fasciné depuis aussi loin que je me souvienne, je suis également passionné par la communauté que nous avons formée depuis une vingtaines d’années, rassemblant des personnes de tous âges (des gamins de 10 ans aux retraités) et de tous milieux, amateurs ou professionnels, scientifiques ou littéraires, ou simplement amoureux de beaux paysages et de photographies. La météo touche tout le monde, les questions liées au climat interrogent tout le monde – bref, ces sujets intéressent voire passionnent bien au-delà des barrières sociales habituelles !

Vous êtes membres bénévoles de Infoclimat, pouvez-vous nous parler du projet de l’association ?

SB : Initialement, Infoclimat était un petit groupe de passionnés de météo et de climat, qui partageaient leurs relevés entre-eux à la fin des années 90, sur un site web appelé « OrageNet ». Tout cela a progressivement grossi, jusqu’à l’année 2003, où l’association a été créée principalement pour subvenir aux besoins d’hébergement du site web. A l’époque, nous étions déjà (et sans le savoir!) en « Web 2.0 » et pratiquions les sciences participatives puisque l’essentiel du contenu était apporté par les passionnés ; nous étions alors bien loin d’imaginer que les problématiques liées au climat deviendraient un enjeu mondial avec une telle résonance médiatique.

Site internet d'Infoclimat entre les années 90 et aujourd'hui
Infoclimat a beaucoup évoluée, entre les débuts sur un internet confidentiel des années 90 dédié au partage, au web d’aujourd’hui.

 

FA : Depuis, l’objet social s’est considérablement diversifié, avec la montée en puissance de notre asso. Aujourd’hui, nous visons trois thématiques particulières :

  • L’engagement citoyen au service de la météo et du climat : partager ses relevés, ses observations météo, installer des stations météorologiques,… au service de tous ! Cela permet de comprendre comment le climat change, mais aussi de déceler des particularités locales que les modèles de prévision ne savent pas bien prendre en compte, ou qui ne peuvent pas être mesurées facilement.
  • Valoriser la donnée météo et climato, qu’elle soit issue de services officiels ou diffusée en « OpenData » par nous ou nos passionnés, et en particulier en faire des outils utiles autant aux « pros » et chercheurs, qu’au service de la vulgarisation des sujets climatiques pour le grand public. Les utilisations sont très nombreuses : agriculture, viabilité hivernale, thermique dans l’habitat, recherches sur le changement climatique, production électrique, journalistes…
  • Former et transmettre les connaissances, par la production de contenus de vulgarisation scientifique, l’organisation de « rencontres météo », ou encore des interventions auprès des écoles, dans des événements sur le terrain ou sur les réseaux sociaux. Bref, contrer la désinformation et le buzz !

 

Installation de matériel météo
Quand Infoclimat débarque quelque part, c’est rarement pour pique-niquer… Mais plutôt pour installer du matériel météo !

 

Vous faites donc des prévisions météo ?

SB : Même si le forum est largement animé par des prévisionnistes amateurs, nous parlons finalement assez peu de prévisions météo : le cœur du site, c’est l’observation météo en temps réel et la climatologie qui résulte des données collectées, qui sont des sujets bien différents ! Il y aurait tant à dire sur le monde de la prévision météo, mais cela mériterait un article à lui seul, car il y a un gros sujet là aussi sur l’ouverture des données et la paternité des algorithmes… Souvent négligée, l’observation météorologique est pourtant fondamentale pour produire une bonne prévision. Pour faire court, la donnée météo « observée » est la nourriture qu’il faut pour entraîner les modèles climatiques, et faire tourner les modèles numériques qui vous diront s’il faut un parapluie demain sur votre pixel de 1km².

Observations météo avec le modèle français AROME
Quantité d’observations météo intégrées dans le modèle de prévisions français « AROME », source principale de toutes les prévisions en France métropolitaine. La performance des modèles météorologiques est fortement corrélée à la quantité, la fréquence, et à la qualité de leurs données d’entrées (observations radar, satellite, avions, stations météo au sol,…). La quantité d’observations des stations Météo-France est à peu près équivalente à la quantité de données produites par les passionnés d’Infoclimat. Graphique simplifié, hors données radar. Avec l’aimable autorisation de Météo-France et du CNRM.

 

FA : Ce qu’il faut savoir, c’est que l’immense majorité des sites internet ou appli que vous consultez ne font pas de prévisions météo, mais utilisent des algorithmes automatisés qui traitent des données fournies (gratuitement ou avec redevance) par les organismes publics (Météo-France, la NOAA, le Met-Office, l’organisme européen ECMWF,…). La qualité des prévisions est en gros corrélée à l’argent que les créateurs des sites et des applis peuvent injecter pour récolter des données brutes de ces modèles numériques. Par exemple, pour avoir les données du modèle de Météo-France « AROME », c’est à peu près gratuit car les données sont sous licence Etalab, mais si vous voulez des données plus complètes, permettant d’affiner vos algorithmes et de proposer « mieux », c’est sur devis.

Dès lors, Infoclimat ne souhaite pas se lancer dans cette surenchère, et propose uniquement des prévisions automatisées issues de données ouvertes de Météo-France et de la NOAA, et indique très clairement la différence entre prévisions automatisées et bulletins rédigés par des passionnés.

Image des "cubes" de données des modèles météo
La Terre est découpée en petits cubes dans lesquels les modèles météo estiment les paramètres de l’atmosphère à venir. Les cubes sont généralement bien plus gros lorsque les échéances sont lointaines (J+4, J+5…), ce qui empêche les modèles météorologiques de discerner les phénomènes météo de petite échelle (averses, orages, neige, effets des reliefs et des côtes). Pourtant, de nombreuses appli météo se contentent de vous fournir grossièrement ces données sans l’explication qui va avec. Chez Infoclimat, on laisse volontairement la résolution native, pour ne pas induire le lecteur en erreur sur la résolution réelle des données.

 

Cela me fait toujours rire (jaune) quand j’entends « [site ou appli] a de meilleures prévisions à chaque fois, et en plus, on les a à 15 jours ! » : lorsqu’il s’agit de prévisions « automatiques », par ville, il est probable qu’il utilise les mêmes données que tous les autres, présentées légèrement différemment, et qu’il s’agisse juste d’un biais de confirmation. Il existe bien sûr quelques exceptions, certaines entreprises faisant un vrai travail de fusion de données, d’analyse, de suppression des biais, pour proposer des informations de très grande qualité, généralement plutôt payantes ou pour les pros. Mais même chez ceux qui vous vendent du service d’aide à la décision, de protection des biens et des personnes, des données expertisées ou à vocation assurantielles, vous seriez très surpris de la piètre qualité de l’exploitation qui est faite de ces données brutes.

Graphique présentant la technique de prévision ensembliste
Les modélisateurs météo ont plein de techniques pour prendre en compte les incertitudes dans les observations et les modèles, notamment ce que l’on appelle la « prévision ensembliste ». Mais ces incertitudes sont rarement présentées ou expliquées au public. Ici par exemple, le graphique présente la quantité de pluie prédite par un modèle météo le 6 janvier, pour la période entre le 6 janvier et le 16 janvier 2022, sur un point de la France. Le modèle considère plusieurs scénarios d’évolution possible des futurs météorologiques. Source : ECMWF, CC BY 4.0.

 

Malheureusement, cette situation rend très délicate la perception des prévisions météo par le grand public (« ils se trompent tout le temps ») : la majorité des applis prend des données gratuites, de faible qualité, sur le monde entier, qui donnent une prévision différente 4 fois par jour au fil des calculs. Cela ne met vraiment pas en valeur le travail des modélisateurs, qui font pourtant un travail formidable, les modèles numériques s’améliorant considérablement, et décrédibilisent aussi les conclusions des organismes de recherche pour le climat (« ils ne savent pas prévoir à 3 jours, pourquoi ils sauraient dans 50 ans ?! »), alors qu’il s’agit surtout d’une exploitation maladroite de données brutes, sans accompagnement dans leur lecture.

Graphique présentant l'amélioration de la qualité des prévisions de l'état de l'atmosphère
Ce graphique présente, grosso-modo, l’amélioration de la qualité des prévisions de l’état de l’atmosphère au fil des années, à diverses échéances de temps (jaune = J+10, vert = J+7, rouge = J+5, bleu = J+3) et selon les hémisphères terrestres. Plus c’est proche de 100%, meilleures sont les prévisions ! Source : ECMWF, CC BY 4.0. 

 

Du coup, quelles actions menez-vous ?

FA : Notre action principale, c’est la fourniture d’une plateforme sur le web, qu’on assimile souvent au « Wikipédia de la météo », ou à un « hub de données » : nous récoltons toutes sortes de données climatiques et météorologiques de par le monde, pour les décoder, les rendre digestes pour différents publics, et la mettre en valeur pour l’analyse du changement climatique. Ce sont par exemple des cartographies, ou des indices d’évolution du climat. C’est notre rôle initial, qui aujourd’hui compile plus de 6 milliards de données météo, à la qualité souvent rigoureusement contrôlée par des passionnés ! Il faut savoir que nous n’intégrons pas toutes les stations météo : nous respectons des normes de qualité du matériel et de l’environnement, pour que les données soient exploitables et comparables entre-elles, comparables avec des séries climatiques historiques, et assimilables dans des modèles numériques de prévision.

 

Infoclimat propose une interface simple et très complète
Infoclimat propose l’accès à toutes les informations météo et climatiques dans des interfaces qui se veulent simples d’accès, mais suffisamment complètes pour les plus experts. Dur équilibre !

 

SB : Avec l’accroissement de notre budget, nous avons pu passer à l’étape supérieure : installer nos propres stations météo, et soutenir les associations locales et les passionnés qui en installent et qui souhaitent mettre leurs données au service d’une base de données commune et libre.

Randonnée pour installer la station météo à Casterino
Les passionnés ne reculent devant rien pour l’intérêt général. Aller installer une station météo à Casterino, village des Alpes Maritimes qui s’est retrouvé isolé de tout après la tempête Alex ? C’est fait, et avec le sourire malgré les kilomètres avec le matériel sur le dos ! Retrouvez l’article ici

 

Il faut savoir que la donnée météo se « monnaye », et chèrement: Météo-France, par exemple, ne met à disposition du grand public que quelques pourcents de ses données, le reste étant soumis à des redevances de plusieurs centaines de milliers d’euros par an (on y reviendra). Ce n’est d’ailleurs pas le cas dans tous les pays du monde, les États-Unis (NOAA) ont été précurseurs, beaucoup de pays Européens s’y mettent, mais la France est un peu en retard… Nous sommes partenaires de Météo-France, participons à des travaux communs dans le cadre du « Conseil Supérieur de la Météorologie », mais c’est très long, trop long, et cela prive Météo-France d’une source de revenus importante dans un contexte de stricte restriction budgétaire. L’établissement public administratif se retrouve en effet pris dans une injonction contradictoire par son autorité de tutelle (le Ministère de la Transition écologique et solidaire) : d’un côté il doit « libérer » les données publiques et mettre en place les infrastructures nécessaires, de l’autre, on lui intime l’ordre de trouver de nouvelles sources de financement par sa branche commerciale, et on lui réduit ses effectifs !

Redevances Météo France
Redevances demandées par Météo-France pour accéder aux données météo de son réseau « RADOME » (90% des stations françaises). Hors de portée de notre association ! Source

 

Données ouvertes météo France et données Infoclimat
Le réseau de stations en France, avec les données ouvertes de Météo-France (à gauche), et avec les données Infoclimat et partenaires en plus (à droite). Remarquez le contraste avec certains autres pays Européens !

 

Aujourd’hui, Infoclimat c’est donc un bon millier de stations météo (les nôtres, celles des passionnés, et de nos associations partenaires), qui complètent les réseaux nationaux dans des zones non couvertes, et qui permettront à l’avenir d’améliorer la fiabilité des modèles météo de Météo-France, dans des travaux que nous menons avec eux sur l’assimilation des réseaux de données partenaires. Parfois d’ailleurs, nous réinstallons des stations météo là où Météo-France est parti ou n’a pas souhaité améliorer ou maintenir des installations, comme au Mont-Ventoux (84), ou à Castérino (06). Et ces données intéressent une multitude d’acteurs, que nous découvrons souvent au hasard des installations : au-delà de l’intérêt pour la météo des particuliers (« combien fait-il au soleil? » « quelle quantité de pluie est tombée la nuit dernière? »), les activités professionnelles météo-sensibles allant de l’agriculture à l’expertise en assurance, en passant par les études de risques et/ou d’impacts jusqu’aux recherches sur les « ICU » (ilots de chaleurs urbains observés dans les milieux urbanisés) se montrent très demandeuses et n’hésitent pas à se tourner vers nous pour leur fournir de la « bonne data-météo ».

Réhabilitation d'une station météo au Mont-Ventoux
Réhabiliter une station météo au sommet du Mont-Ventoux : check. Les données météo sont par ici. 

 

Enfin, le troisième pilier, c’est la pédagogie. Nous avons repris en 2018, à nos frais et sans aucune subvention, l’initiative « Météo à l’École », qui avait été lancée en 2008 par le Ministère de l’Éducation Nationale avec Météo-France et l’Observatoire de Paris, mais qui a failli disparaître faute de budget à la fin du « Grand Emprunt ». L’objectif : sensibiliser de manière ludique les publics du primaire et du secondaire aux enjeux de la météo et du climat. Installer une station météo dans un collège permet de faire un peu de techno, traiter les données en faisant des maths, des stats et de l’informatique, et enfin les analyser pour parler climat et Système Terre.
Aujourd’hui, nous hébergeons les données des quelques 60 stations, ainsi que les contenus pédagogiques de Météo À l’École, permettant aux profs d’échanger entre eux.

Photo : Météo à l'École
Installer des stations météo dans les écoles, expliquer les concepts de la météo et du climat, « jouer » avec des données, et discuter entre profs : c’est ce que permet le programme Météo à l’École

 

Depuis de nombreuses années, nous complétons cela avec des interventions auprès des jeunes et moins jeunes, sous forme d’ateliers ou de journées à thème (« Rencontres Météo et Espace », « Nuit des Chercheurs », « Fête du Vent »,…), un peu partout en France selon la disponibilité de nos bénévoles !

Rencontre Météo et Espace
Lors des Rencontres Météo et Espace organisées par le CNES, Infoclimat et Météo-France, les enfants apprennent par exemple comment on mesure les paramètres en altitude dans l’atmosphère, grâce aux ballons sondes.

 

Photos : évènements tout publics
Nous aimons autant apprendre des choses aux très jeunes (à gauche), qu’aux moins jeunes (à droite), lors d’événements tout-publics.

 

Quelles valeurs défendez-vous ?

FA : La première de nos valeurs, c’est l’intérêt général ! Ce que nous avons conçu au cours de ces vingt dernières années n’appartient à personne, c’est un commun au service de tous, et pour certaines informations, c’est même le point de départ d’un cercle vertueux de réutilisation, par la libération des données en Open-Data.

Page OpenData d'Infoclimat
La page OpenData d’Infoclimat, qui permet de s’abstraire des complexités des formats météo, des différents fournisseurs, et tente de résoudre au mieux la problématique des licences des données.

Comme on l’a dit plus haut, le monde de la météo est un juteux business. Vous trouverez pléthore de sites et applis météo, et leur composante commune, c’est que ce sont des sociétés à but lucratif qui en font un business, sous couvert d’engagement citoyen et de « communauté ». Vous y postez vos données et vos photos, et ils en tirent en retour des revenus publicitaires, quand ils ne revendent pas les données météo à d’autres sociétés (qui les mâchouillent et en font de l’analyse pour d’autres secteurs d’activité).

Parmi les initiatives similaires, on peut citer parmi les plus connues « Weather Underground » (appartenant à IBM et destinée à alimenter Watson) ou encore « Awekas » (Gmbh allemande), « Windy » (société tchèque), « Météociel » (SAS française), qui sont des sociétés privées à plusieurs centaines de milliers ou quelques millions d’euros de CA. On notera d’ailleurs que toutes ces initiatives ont des sites souvent moins complets que le notre !
On se retrouve dans une situation parfois ubuesque : ces types de sociétés peuvent acheter des données payantes à l’établissement public Météo-France (pour quelques centaines de milliers d’euros par an), et les proposent ensuite à tous sur leur site web, rémunéré par la publicité ou par abonnement à des fonctionnalités « premium ». Alors qu’elles pourraient bénéficier à tous dans une base de données librement gérée comme celle d’Infoclimat, et aussi servir nos outils d’analyse du changement climatique ; il faut passer obligatoirement par les sites de ces sociétés privées pour bénéficier des données produites par l’établissement public… et donc en partie avec l’argent public. D’autres acteurs de notre communauté en faisant déjà echo il y a bien des années, et la situation n’a pas changé : https://blog.bacpluszero.com/2014/06/comment-jai-failli-faire-doubler-le.html.

Photo : visite Météo France
Nos adhérents et administrateurs lors d’une visite chez Météo-France, en 2016. Malgré un partenariat depuis 2009, l’établissement public éprouve toujours des difficultés à partager ses données avec la communauté, mais s’engage à ses côtés dans la formation et le support technique. En mémoire de nos bénévoles disparus Pouic, Mich’, Enzo.

 

SB : Notre force, c’est de pouvoir bénéficier d’une totale indépendance, grâce à nos adhérents, mécènes et donateurs. On a réalisé le site dont on a toujours rêvé, pas celui qui générera le plus de trafic possible pour en tirer un revenu. Les données des stations météo que nous finançons sont toutes placées sous licences ouvertes, et nos communications sont rigoureuses et factuelles plutôt que « putaclic » (ce qui nous vaut d’ailleurs une notoriété encore assez limitée chez le grand public, en dehors des photos de nos contributeurs reprises dans les bulletins météo de France TV notamment).

Trouvez-vous aussi votre indépendance vis-à-vis des GAFAM ?

FA : Cela reste encore perfectible : si nous croyons à notre indépendance et au respect des utilisateurs, il y aurait encore des reproches à nous faire. Nous mettons vraiment beaucoup en place pour respecter les données (qu’elles soient météo, personnelles, ou les droits des photographes), nous auto-hébergeons l’immense majorité des contenus (sur 12 serveurs dédiés OVH, du cloud Scaleway, et des machines gracieusement prêtées par Gandi, et même un NAS chez un administrateur fibré !), et essayons d’éviter les services tiers, et les fuyons au possible lorsqu’ils sont hébergés ou contrôlés à l’étranger. Mais tout n’est pas toujours si simple.

Par exemple, nous utilisions jusqu’à très récemment encore Google Analytics, par « simplicité » : tout notre historique depuis 2008 y est stocké, et une instance Matomo assez dimensionnée pour 150M de pages vues par an, ça veut dire gérer une nouvelle machine, et des coûts supplémentaires… pour une utilisation assez marginale, notre exploitation des statistiques étant très basique, puisque pas de publicités et pas de « conversions » ou « cibles d’audience »… Mais tout de même appréciée des bénévoles pour analyser la fréquentation et l’usage des rubriques du site. Il doit aussi traîner quelques polices de caractères hébergées par Google, mais tout le reste est 100% auto-hébergé et/ou « fait maison ».

Complexité des cartes de Infoclimat
Nos cartes sont complexes et nécessitent des données géospatiales de bonne qualité, et à jour. Maintenir à jour une telle base, seuls, et à l’échelle mondiale, est… un projet à lui tout seul.

 

Nous sommes aussi de gros consommateurs de contenus cartographiques, et proposons des interfaces de visualisation mondiales plutôt jolies (basées sur OpenLayers plutôt que GoogleMaps), mais qui nécessitent des extractions de données particulières (juste les villes, un modèle de terrain haute résolution, ou bien juste les rivières ou limites administratives). C’est un sujet qui peut aussi être vite difficile à gérer.
À une époque, on stockait donc une copie partielle de la base de données OpenStreetMap sur l’Europe, et je générais moi-même des carto avec Tilemill / Mapserver / Geowebcache et des styles personnalisés. Les ressources nécessaires pour faire ça étaient immenses (disque et CPU), la complexité technique était grande, et que dire quand il faut tenir toutes ces bases à jour. C’est un projet à lui tout seul, et on ne peut pas toujours réinventer la roue. Bref, pour le moment, nous utilisons les coûteux services de Mapbox.

Vous nous avez parlé de certaines limites dans votre travail bénévole, qu’est-ce qui vous pose problème ?

FA : Le problème majeur, c’est le développement web du site. La majorité de nos outils sont basés sur le site web : cartes, graphiques, statistiques climatiques, espaces d’échange, contenus pédagogiques, tout est numérique. Aujourd’hui, et depuis 13 ans, le développement et la maintenance du site et de ses serveurs repose sur un seul bénévole (moi !). Déjà, ce n’est pas soutenable humainement, mais c’est aussi assez dangereux.
La raison est simple : un logiciel avec 400.000 lignes de code, 12 serveurs, des technologies « compliquées » (formats de fichiers spécifiques à la météo, cartes interactives, milliards d’enregistrements, bases de données de plusieurs téraoctets,…), ce n’est pas à la portée du premier bénévole qui se pointe ! Et il faut aussi beaucoup d’accompagnement, ce qui est difficile à combiner avec la charge de travail existante.

Pour les plus geeks d’entre-vous, concrètement, voici les technos sur lesquelles sont basées nos plateformes : PHP (sans framework ni ORM !), Javascript/jQuery, OpenLayers, Leaflet, Highcharts, Materialize (CSS), pas mal de Python pour le traitement de données météo (Scipy/Numpy) du NGINX, et pour les spécifiques à notre monde, énormément de GDAL et mapserver, geowebcache, des outils loufoques comme NCL, des librairies pour lire et écrire des formats de fichiers dans tous les sens (BUFR, SYNOP, METAR, GRIB2, NetCDF).
Et bien sûr surtout MariaDB, en mode réplication (et bientôt on aura besoin d’un mode « cluster » pour scaler), des protocoles de passage de message (RabbitMQ, WebSockets), de l’ElasticSearch et SphinxSearch pour la recherche fulltext, et du Redis + Memcached pour les caches applicatifs.
Au niveau infra, évidemment de la gestion de firewall, de bannissement automatique des IP, un peu de répartition de charge, de l’IP-failover, un réseau dédié entre machines (« vRack » chez OVH), beaucoup de partages NFS ou de systèmes de fichiers distribués (GlusterFS, mais c’est compliqué à maintenir donc on essaie de migrer vers de l’Object-Storage type S3).
Et on a aussi une appli mobile Android en Java, et iOS en Swift, mais elles sont vieillissantes, fautes de moyens  (leur développement a été sous-traité), et la majorité des fonctionnalités est de toutes façons destinée à être intégrée sur le site en mode « responsive design ».
Je passe sur la nécessité de s’interfacer avec des API externes (envois de mails, récupération de données météo sur des serveurs OpenData, parsing de données météo, API de la banque pour les paiements d’adhésions), des outils de gestion interne (Google Workspace, qui est « gratuit » pour les assos, hé oui !), des serveurs FTP et VPN pour connecter nos stations météo, un Gitlab auto-hébergé pour le ticketing et le code source …

SB : On a aussi des difficultés à dégager du temps pour d’autres actions : installer des stations météo par exemple, ce n’est pas négligeable. Il faut démarcher des propriétaires, obtenir des autorisations, parfois signer des conventions compliquées avec des collectivités locales, gérer des problématiques « Natura 2000 » ou « Bâtiments de France », aller sur site,… c’est assez complexe. Nous essayons de nous reposer au maximum sur notre communauté de bénévoles et adhérents pour nous y assister.

Quels sont vos besoins actuels ?

SB : Dans l’idéal, et pour venir en renfort de Frédéric, nous aurions besoin d’un développeur « full-stack » PHP à plein temps, et d’un DevOps pour pouvoir améliorer l’architecture de tout ça (qui n’est plus au goût des stacks technologiques modernes, et sent un peu trop l’année 2010 plutôt que 2022, ce qui rend la maintenance compliquée alors que le trafic web généré suppose de la perf’ et des optimisations à tous les niveaux).
Ce n’était pas immédiatement possible au vu des revenus de l’association, qui atteignaient environ 60.000€ en 2021, dont 15.000€ sont dépensés en frais de serveurs dédiés chez OVH (passer au tout-cloud coûte trop cher, en temps comme en argent,… mais gérer des serveurs aussi !).

FA : On développe aussi deux applis Android et iOS, qui reprennent les contenus du site dans un format simplifié, et surtout permettent de recevoir des alertes « push » selon les conditions météo, et d’afficher des widgets. Elles sont dans le même esprit que le site (pas de pubs, le moins de contenus tiers possibles), cependant ce sont des applis que l’on a sous-traité à un freelance, ce qui finit par coûter très cher. Nous réfléchissons à quelle direction donner à celles-ci, surtout au vu de l’essor de la version « responsive » de notre site.
Nous aimerions commencer à donner une direction européenne à notre plateforme, et la mettre à disposition des communautés d’autres pays. Il y a un gros travail de traduction, mais surtout de travaux techniques pour rendre les pages de notre site « traduisibles » dans différentes langues.

Vous ouvrez cette année un premier poste salarié, quelle a été votre démarche ?

SB : Dès lors, nous avions surtout un besoin intermédiaire, qui vise à faire progresser nos revenus. Pour cela, notre première marche sur l’escalier de la réussite, c’est de recruter un·e chargé·e de développement associatif, chargé d’épauler les bénévoles du Conseil d’Administration à trouver des fonds : mécènes et subventionneurs publics. Les sujets climat sont au cœur du débat public aujourd’hui, l’engagement citoyen aussi (on l’a vu avec CovidTracker !), nous y participons depuis 20 ans, mais sans savoir nous « vendre ».

FA : Cette première marche, nous l’avons franchie grâce à Gandi, dans le cadre de son programme « Gandi Soutient », qui nous a mis en relation avec vous, Framasoft. Vous êtes gentiment intervenus auprès de nos membres de Conseil d’Administration, et vous nous avez rassurés sur la capacité d’une petite association à se confronter aux monopoles commerciaux, en gardant ses valeurs fondatrices. Sans votre intervention, nous n’aurions probablement pas franchi le pas, du moins pas aussi vite !

Intervention de Framasoft pendant une réunion du CA de Infoclimat

 

SB : Cela va nous permettre de faire souffler une partie de nos bénévoles. Même si cela nous fait peur, car c’est une étape que nous n’osions pas franchir pour préserver nos valeurs, c’est avec une certaine fierté que nous pouvons aujourd’hui dire : « nous sommes une asso d’intérêt général, nous proposons un emploi au bénéfice de tous, et qui prend sa part dans la mobilisation contre le changement climatique, en en donnant des clés de compréhension aux citoyens ».

FA : La seconde étape, c’est recruter un⋅e dév’ web full-stack PHP/JS, quelqu’un qui n’aurait pas été impressionné par ma liste de technos évoquée précédemment ! Comme nous avons eu un soutien particulièrement fort de notre communauté en ce début d’année, et que notre trésorerie le permet, nous avons accéléré le mouvement, et la fiche de poste est d’ores-et-déjà disponible, pour un recrutement envisagé à l’été 2022.

Comment pouvons-nous soutenir Infoclimat, même sans s’y connaître en stations météo ?

FA : Pour celles et ceux qui en ont les moyens, ils peuvent nous soutenir financièrement : c’est le nerf de la guerre. Quelques euros sont déjà un beau geste ; et pour les entreprises qui utilisent quotidiennement nos données (on vous voit !), un soutien plus important permet à nos outils de continuer à exister. C’est par exemple le cas d’un de nos mécènes, la Compagnie Nationale du Rhône, qui produit de l’électricité hydroélectrique et éolienne, et est donc légitimement intéressée de soutenir une asso qui contribue au développement des données météo !
Pour cela, nous avons un dossier tout prêt pour expliquer le détail de nos actions auprès des décideurs. Pour aller plus loin, une seule adresse : association@infoclimat.fr

Et pour ceux qui veulent aussi s’investir, nous avons une page spécifique qui détaille le type de tâches bénévoles réalisables : https://www.infoclimat.fr/contribuer.

Ce n’est pas exhaustif, il y a bien d’autres moyens de nous épauler bénévolement, pour celles et ceux qui sont prêts à mettre les mains dans le cambouis : des webdesigners, développeurs aguerris, experts du traitement de données géographique, « datavizualisateurs », ou même des gens qui veulent faire de l’IA sur des séries de données pour en trouver les erreurs et biais : il y a d’infinies possibilités ! Je ne vous cacherai pas que le ticket d’entrée est assez élevé du point de vue de la technique, cela dit…

SB : Pour les autres, il reste l’énorme possibilité de participer au site en reportant des observations via le web ou l’appli mobile (une paire d’yeux suffit!) ainsi que des photos, ou… simplement nous faire connaître ! Une fois comprise la différence entre Infoclimat et tous les sites météo, dans le mode de fonctionnement et l’exploitation commerciale ou non des données, on comprend vite que notre association produit vraiment de la valeur au service des citoyens, sans simplement profiter des données des autres, sans apporter sa pierre à l’édifice, comme le font nonchalamment d’autres initiatives. Par ailleurs, nous avions pour projet d’avoir une page sur Wikipédia, refusée par manque de notoriété 🙁 . Idem pour la demande de certification du compte Twitter de l’Association, qui pourtant relaie de l’information vérifiée et montre son utilité lors des événements météo dangereux ou inhabituels, comme lors de l’éruption tout récente du volcan Hunga Tonga-Hunga Ha’apai sur les Iles Tonga qui a été détectée 15h plus tard et 17.000 km plus loin par nos stations météo lors du passage de l’onde de choc sur la métropole!

Capture écran : tweets postés avec le passage de l'onde de choc après l'erruption du volcan des Iles Tonga sur la métropole

FA : Infoclimat, c’est un peu l’OpenFoodFacts du Yuka, l’OpenStreetMap du GoogleMaps, le PeerTube du YouTube, le Wikipédia de l’Encarta (pour les plus vieux)… et surtout une formidable communauté, que l’on en profite pour remercier ici !

On vous laisse maintenant le mot de la fin !

SB : Bien sûr, on aimerait remercier tous ceux qui ont permis à cette aventure de progresser : tous les bénévoles qui ont œuvré depuis 20 ans, tous les adhérent⋅e⋅s qui ont apporté leur pierre, nos mécènes et donateurs, ainsi que les passionnés qui alimentent le site et nous soutiennent depuis toutes ces années!

FA : Le soutien de Gandi et Framasoft a aussi été un déclencheur, et j’espère que cela pourra continuer à être fructueux, au service d’un monde meilleur et désintéressé. Des initiatives comme la notre montrent qu’être une asso, ça permet de produire autant voire plus de valeur que bien des start-up ou qu’un gros groupe qu’on voit passer dans le paysage météo. Et pourtant, nous sommes souvent bien moins soutenus, ou compris.

 

Resources à consulter :




PENSA, un projet universitaire européen autour de la citoyenneté numérique

En février 2020, nous avons été contacté par Marco Cappellini, d’Aix-Marseille Université, qui nous proposait de participer à un projet européen – qui n’avait, à l’époque, pas encore de nom – sur la thématique de la citoyenneté numérique dans une perspective plurilingue. Intriguées, nous avons voulu en savoir plus et, après un temps d’échanges, nous avons convenu que Framasoft serait l’un des partenaires associés de ce projet, spécifiquement sur la production de séquences de formations. Et puis, une pandémie mondiale est passée par là ! Ce n’est donc qu’en février 2021 que le projet PENSA (c’est son petit nom) a eu confirmation de son financement et que nous avons pu préciser notre participation : nous animerons une session de formation sur les logiciels libres dans l’enseignement en juin 2022. Maintenant que le projet est lancé, il était temps qu’on vous en parle. Et pour cela, nous avons proposé aux personnes qui coordonnent ce projet de répondre à une petite interview.

logo projet PENSA

Bonjour Elisabeth et Marco ! Pouvez-vous vous présenter ?

Bonjour, je suis Elisabeth Sanchez, Ingénieure d’études au Centre de Formation et d’Autoformation en Langues (CFAL) à Aix Marseille Université. Je suis en charge de l’animation et de l’ingénierie du projet PENSA.
Bonjour, je suis Marco Cappellini, enseignant chercheur à Aix Marseille Université et coordonnateur du projet PENSA.

Vous faites tous les deux partie de l’équipe de coordination du projet PENSA. Vous pouvez nous expliquer de quoi il s’agit ?

Le projet pour une Professionnalisation des Enseignants utilisant le Numérique pour un Soutien à l’Autonomie et à la citoyenneté (PENSA), soutenu par le programme Erasmus+ de la Commission européenne, aborde deux questions d’actualité dans l’enseignement supérieur et la société.

La première est le besoin de formation et d’infrastructure pour dispenser un enseignement mixte, distant et/ou co-modal (c’est-à-dire un enseignement en classe diffusé simultanément à des étudiants en ligne) qui s’est fait à la suite de la pandémie. Pendant les lockdowns nationaux et pour dispenser un enseignement co-modal, les enseignants se sont souvent tournés vers les plateformes en ligne classiques telles que Zoom sans être conscients du modèle économique de ces plateformes en termes de traitement des données personnelles.

La deuxième question est la nécessité d’éduquer les jeunes aux implications de l’utilisation des sites de réseaux sociaux (Facebook, YouTube, etc.) sur les plans psychologique, sociologique, économique et social. En effet, le déploiement de ces plateformes s’est accompagné de discours d’émancipation, les utilisateurs ayant pu exprimer et échanger leurs idées en ligne, générant ainsi davantage de dialogue public. Parfois, des dérives extrêmes ont démontré la fragilité du système d’où la nécessité de sensibiliser les étudiants aux logiques inhérentes à ces plateformes.

Le projet PENSA aborde ces questions avec une approche globale d’ouverture, à la fois dans le sens de l’éducation ouverte et des plateformes open source. Le cœur du projet est constitué de 30 enseignants et formateurs d’enseignants dans sept universités, la plupart faisant partie de l’Université européenne CIVIS, une association académique et une entreprise.

Au cours du projet, une centaine d’enseignants seront formés à l’intégration de l’enseignement mixte et co-modal dans leurs classes, avec l’intégration de la télécollaboration et de l’échange virtuel sur des sujets liés à la citoyenneté numérique. Grâce à ces actions, PENSA permettra à 400 élèves de toute l’Europe de développer leurs compétences numériques, leurs compétences plurilingues, leurs capacités de collaboration et leur autonomie d’apprentissage.

Pouvez-vous nous préciser comment les étudiant⋅es travaillent en collaboration ?
Les étudiants vont travailler en classe avec leurs enseignants et en ligne en petits groupes avec leurs camarades d’une université partenaire. Les échanges en ligne se déroulent dans la plupart des cas en trois phases. La première est une phase de prise de contact pour briser la glace. Les étudiants peuvent se présenter et comparer leurs environnements, d’études et personnels par exemple. Dans la deuxième phase, les étudiants travaillent pour analyser ensemble des « textes parallèles ». De manière générale, ces textes peuvent être des remakes de films, par exemple un groupe franco-italien comparant Bienvenue chez les Ch’tis et Benvenuti al Sud. Dans le cadre du projet PENSA, il s’agira plus spécifiquement par exemple de législations pour le déploiement de la reconnaissance faciale dans les pays respectifs. Cette deuxième phase se veut une entrée dans l’interculturel. Dans la troisième phase, les étudiants collaborent pour réaliser une production commune, un article de blog ou un poster sur une thématique en lien avec le projet, par exemple la gestion des données sur un site de réseautage social. C’est dans cette phase qu’il vont apprendre à développer leur communication et la gestion de la diversité dans une équipe, pour aller encore davantage dans l’interculturel.

capture plateforme PENSA

Comment vous est venue l’idée de travailler sur ces thématiques ?
Marco : Personnellement, de deux choses. Tout d’abord, ce sont plusieurs lectures qui ont éclairé chez moi les aspects problématiques de certains outils et plateformes numériques. Je pense aux écrits de Bernard Harcourt et plus spécifiquement son essai La Société d’exposition : désir et désobéissance à l’ère numérique, à ceux de Frank Pasquale sur l’opacité du fonctionnement des entreprises qui dominent sur Internet, ou encore les écrits sur l’autodéfense numérique du collectif italien Ippolita, également partenaire associé de PENSA.

La deuxième dynamique a été un ensemble de discussions avec des collègues et des amis, qui ont montré d’une part qu’il y avait une connaissance vague des dynamiques sur Internet et une connaissance presque nulle des outils alternatifs à disposition. À partir de là, avec plusieurs collègues on s’est réunis en février 2019 et on a travaillé à une proposition pour les appels à projet de la Commission Européenne. Puis est venue la pandémie, qui n’a fait que renforcer le besoin de développer une culture numérique chez les étudiants, mais aussi chez beaucoup de collègues.

PENSA est un projet ERASMUS+. Pouvez-vous nous en dire davantage sur ce programme européen ?
Erasmus+ est un programme connu surtout pour ses actions liées à la mobilité. Moins connues, mais tout aussi intéressantes, sont les actions liées à la coopération, tant au niveau scolaire qu’universitaire. PENSA est un projet qui s’insère dans les actions clés, pour des partenariats stratégiques dans l’enseignement supérieur. L’idée principale est de réunir plusieurs partenaires aux expertises complémentaires pour répondre à un ou plusieurs défis sociétaux.

Dans PENSA, le noyau de l’équipe est composé d’enseignants de 7 universités, de collègues d’une entreprise spécialisée dans les open coursware et d’une association internationale. Dans une formation qui s’est tenue en juin 2021, chaque membre de l’équipe a apporté quelque chose aux autres. Par exemple, j’ai pu apprendre davantage sur les outils libres spécifiques à la formation et à mieux intégrer des échanges en ligne entre mes étudiants et des étudiants ailleurs. A partir de cette collaboration, dans chacune des universités on formera d’autres collègues pour diffuser des idées et des outils pour améliorer la pédagogie universitaire.

Puisque PENSA est un projet européen, quelles sont les langues utilisées ?
Il y a 7 langues présentes dans le projet : allemand, anglais, catalan, espagnol, français, italien, roumain. Dans les échanges entre étudiants, ils utilisent soit une langue comme langue véhiculaire (typiquement l’anglais), soit les deux langues des pays concernés (par exemple allemand et français pour un échange entre étudiants à Tübingen et Aix en Provence). Pour les autres initiatives du projet, comme la formation de formateurs, on a utilisé l’anglais dans un premier temps, les langues locales ensuite.

Le plus intéressant se passe au niveau de la gestion du projet : le comité de pilotage communique en intercompréhension des langues romanes. Par les similarités entre langues latines, et avec des stratégies de communication, chacun parle dans une langue romane et les autres comprennent et répondent en d’autres langues. Dans ces réunions, on parle donc français, italien et espagnol principalement, avec des touches en catalan et roumain. Au début, ça peut être un peu déstabilisant et surtout fatiguant, mais avec la pratique on s’y fait assez vite. C’est une manière pour nous de faire vivre le plurilinguisme européen, au-delà des séparations entre langues que l’on peut avoir apprises.

photo jeunes européens
Crédit : Université Aix-Marseille

Quelle place accordez-vous au logiciel libre dans ce projet ?
Une place assez importante. D’abord, on vise à faire comprendre la différence entre « gratuit » et « libre », qui n’est pas évidente pour beaucoup de monde. Ensuite, dans la formation de formateurs on fait connaître des alternatives libres, parfois même institutionnelles, pour différents outils. Par exemple BigBlueButton comme une alternative à Zoom ou Skype. D’ailleurs, ces formations sont très intéressantes pour découvrir de nouveaux outils, même pour les personnes le plus expérimentées de l’équipe.

On prévoit aussi de développer et publier des extensions à des outils libres tels que la plateforme Moodle pour les cours hybrides ou à distance. Chez les étudiants, les formations que nous sommes en train de mettre en place visent aussi à les rendre plus conscients des enjeux de l’utilisation de plateformes gratuites grand public, par exemple sur comment elles sont conçues pour capter l’attention et extraire des données, les positionnant en tant que consommateurs. Nous espérons que cette prise de conscience contribuera à des changements dans leurs usages numériques, particulièrement par rapport aux plateformes de réseautage social.

Le côté « open » du projet se fait aussi au niveau des productions de matériel pédagogique, lequel sera mis en ligne sur les sites de la Commission Européenne et du projet.

Donc, le matériel pédagogique sera diffusé sous licence libre ? Si oui, laquelle ?
Oui, il sera diffusé en libre accès. Pour la ou les licences utilisées, ce n’est pas encore défini : ce sera discuté et décidé lors du prochain comité de pilotage.

Dernière question, traditionnelle : y a-t-il une question que l’on ne vous a pas posée ou un élément que vous souhaiteriez ajouter ?
On a probablement fait le tour. Merci bien pour cette occasion de parler de PENSA. Pour la suite et pour suivre l’évolution du projet et profiter des productions, ce sera sur le site https://pensa.univ-amu.fr/, dans la langue de votre choix 🙂

 




Electronic Tales

Nous avons interviewé l’équipe d’Electronic Tales après avoir découvert leur approche accueillant « les développeurs·euses juniors qui n’ont pas suivi un cursus d’ingénieur, ne démontent pas des ordinateurs tous les week-ends et n’ont pas commencé à coder à 5 ans » sur une plateforme « fabriquée avec amour par des devs féministes, queers, inclusifs·ves et autres personnes fucking bienveillant·e·s »

(En plus iels parlent de beurre demi-sel donc forcément, on s’est dit qu’on avait des points communs !)

– Bonjour les histoires électroniques, pouvez-vous vous présenter pour expliquer comment est née votre initiative ?

Bonjour ! À l’origine du projet, on est quatre :

– Officier Azarov (pronoms il/elle) : je suis dev depuis 2017. Dès mes premiers mois dans ce milieu professionnel, j’ai senti deux courants contraires – d’un côté, une vraie soif d’apprendre toujours plus dans le domaine de la programmation, et, de l’autre, la découverte d’un milieu extrêmement dominé par des hommes blancs hétéro cisgenre de 25-35 ans, et une culture beaucoup moins inclusive que ce à quoi je m’attendais. J’ai ensuite travaillé comme formatrice dans un bootcamp, et là encore j’ai été étonnée de voir la vitesse à laquelle des mécanismes d’exclusion se mettaient en place chez les étudiant·e·s. Du coup j’ai eu envie de changer les choses. À terme, le but d’Electronic Tales est d’aider les minorités de la tech (femmes, queers, personnes racisées, personnes handicapées, seniors..), souvent issues de formations courtes ou autodidactes, à combler le gap technique et culturel avec les développeurs·euses ayant suivi des parcours classiques (école d’ingénieur). Au-delà de ce public, beaucoup de juniors en général se reconnaissent dans nos valeurs – et aussi des seniors qui veulent que leur domaine change !

Partenko (pronom il/elle) : je ne viens pas du milieu du dev mais de celui de la tech dite « hardware », et encore avant, j’étais prof des écoles. J’avais un truc en tête au moment de changer de métier : je voulais réparer des trucs et interagir avec des machines. C’est comme ça que je suis tombée dans les entrailles secrètes des ordinateurs et que j’ai commencé à m’intéresser à l’histoire de l’informatique, côté Hardware de la force. Regarder à l’intérieur des ordinateurs me permet de mieux comprendre comment ils fonctionnent. Mon but est de partager ces connaissances avec les personnes qui utilisent ces machines au quotidien afin de les aider à acquérir une culture hardware, ce qui pour nous fait partie intégrante de ce que nous avons appelé la « Computer Culture ». Comme le dit Officier Azarov, le gap technique entre personnes issues d’école d’ingénieur et étudiant·e·s issues de formation courte créé trop souvent des situations de détresse professionnelle pour les juniors qui ne sont pas né·e·s avec un ordinateur dans les mains et/ou un papa ingénieur. Je veux aider les devs juniors à se sentir mieux professionnellement dans un milieu où l’on juge très vite le manque de connaissances comme un manque de compétences.

– Monday Hazard (pronom elle) : Je suis une dev nouvellement arrivée dans le métier suite à une reconversion vaguement improbable entamée un peu avant le confinement (si, si, je vous jure, c’était en 2019). Je suis fascinée par les enjeux socio-culturels qui se nouent dans la tech et convaincue que la question de l’inclusion y est cruciale. C’est toujours la joie de partager avec l’immense communauté de personnes qui vivent les mêmes questionnements et qui les gardent frais dans leur façon d’apprendre, de travailler et de partager les savoirs 🌈

– Le Crampon (pronom il) : Né en 1993 suite à un accident de VTT, je suis un développeur détenteur d’un DUT informatique mais avec un sérieux syndrome de l’imposteur. Actuellement en reconversion en tant que développeur jeux-vidéo en alternance, je tente de combattre ma Nemesis, à savoir la culture des « Petit.e.s Génies du Code qui sont capables de coder un compilateur dès l’âge de 6 ans », qui a tendance à me faire me sentir peu légitime. Et je suis prêt à parier que je ne suis pas le.la seul.e.

– Vous êtes en train d’élaborer un cursus de formation pour celleux qui ne sont pas tombés dans la marmite numérique dès le plus jeune âge avec des séquences qui démultiplient les supports d’apprentissage, avec l’idée de rendre la culture geek accessible au plus grand nombre. C’est une super et noble ambition et on vous souhaite de monter en puissance, mais qu’est-ce qui manque aux autres propositions de formation déjà existantes que vous apportez avec E.Tales ?

Les formations courtes qui ont fleuri ces dernières années favorisent l’entrée de nouveaux profils dans la Tech. Certaines ciblent même très bien les groupes sous-représentés dans le dev (Simplon, Ada, DesCodeuses…). Toutes ces initiatives sont formidables, mais elles ne sont que le début de la solution. La question qui nous hante, c’est : une fois que ces minorités ont accédé à un poste de dev, comment les aider à rester dans ce milieu (par exemple, les femmes ont significativement plus de risques d’abandonner leur carrière technique que leurs homologues masculins) et à gravir les échelons jusqu’à des positions de leadership ?

À côté des formations courtes, il existe aussi quelques passerelles vers des diplômes universitaires (licences, master) ou des cursus d’ingénieur. Mais ces formations sont pour la plupart onéreuses, nécessitent d’étudier à temps plein (et donc de quitter son travail) ou manquent cruellement d’attractivité en termes de pédagogie.
L’ambition d’Electronic Tales est de proposer des contenus d’aussi bon niveau que ces formations spécialisées, mais avec en plus un soin particulier apporté à l’expérience d’apprentissage et un plus grand lien avec les technologies modernes.
Pour l’instant, nous sommes en train de constituer une communauté et des contenus participatifs sur notre plateforme, mais nous visons à terme la création d’un cursus d’excellence structuré et reconnu dans le milieu de la Tech.

– Vous souhaitez construire un « safe space » pour les personnes qui participeront. Pouvez-vous expliquer pourquoi cela vous semble nécessaire ?

Le monde du développement, en entreprise mais aussi dans la sphère des « passionné·e·s », peut être très difficile à vivre lorsqu’on débute. Cette difficulté est encore augmentée lorsqu’on est la seule femme et/ou la seule personne queer/racisée/handicapée/de plus de 40 ans/etc. Et souvent, quand on fait partie d’une minorité et qu’on essaie de parler de ses problèmes, on se heurte à une forme d’incompréhension, voire d’hostilité, de la part de ses collègues.
Notre idée, c’est d’annoncer la couleur tout de suite : que ce soit sur la plateforme ou sur le Slack, les gens qui viennent savent qu’ils entrent dans un espace féministe queer inclusif. Si cela ne leur plaît pas, ils peuvent aller dans d’autres communautés 🙂 On aide aussi les membres de la communauté à communiquer entre eux·elles de façon bienveillante et inclusive – ce n’est pas toujours évident, par exemple quand on veut faire des blagues de dev (promis, nous aussi on les adore) ou qu’on a une question très pointue ! Mais on essaie d’inventer une nouvelle « grammaire » de communication technique à inventer pour inclure davantage.

– Vous écrivez : « notre team est en train de concocter une plateforme de learning social. »
euh c’est quoi au juste, le learning social ?

Le learning social, c’est le fait de casser les dynamiques classiques de sachant·e/apprenant·e telles qu’on a pu en vivre à l’école. On veut encourager les juniors à créer des contenus pour expliquer des choses techniques, pour les aider à prendre confiance en leurs capacités et à déconstruire l’idée qu’il faudrait avoir 10 ans d’expérience pour commencer à partager ses connaissances. (Par ailleurs, un.e junior est parfois plus à même d’expliquer une chose technique à d’autres juniors qu’une personne qui a oublié combien les choses ne coulent pas de sens quand on débute) Donc, concrètement, l’équipe d’Electronic Tales crée bien sûr des contenus pour la plateforme, mais tout le monde peut participer.

– Votre proposition s’adresse essentiellement à des devs juniors, est-ce qu’il y a une limite d’âge ?

Non ! Tout le monde est le·la bienvenu·e ! Et il y a même des devs seniors dans notre communauté – des gens formidables et très motivés pour aider les juniors 💪

– Est-ce qu’il y a un prérequis, un niveau minimum de connaissances ou de pratiques pour se joindre à vous, participer et bénéficier de cette initiative ?

Tout dépend du type de contenus. Dans notre section « Modern World », qui parle surtout de programmation, nos contenus s’adressent plutôt à des personnes qui codent déjà un peu – même si on fait attention à toujours s’appuyer sur le minimum de pré-requis possibles.
Pour les contenus des sections « Imaginarium » (qui s’intéresse aux aspects culturels de la Tech, comme les comics, la science fiction, pourquoi les hackers tapent aussi vite sur leurs claviers dans les films, et ainsi de suite) et « Ancient World » (qui parlera plutôt de hardware et de réseau), il n’y a pas de pré-requis à avoir.

– Est-ce qu’il vous arrive d’organiser des moments de rencontre pour les personnes intéressées par le projet ?

On a deux grands événements cet automne :

  • Les soirées CS50 and chill, où on se retrouve en ligne pour regarder ensemble la célèbre intro à la computer science de Harvard. On communique par chat, pour échapper à la fatigue de la visio. C’est fabuleux et très apprécié par celles·ceux qui nous rejoignent 🙂 Ça a lieu deux fois par mois.
  • On va commencer un cycle « Hacke les entretiens techniques » en novembre. On va notamment avoir un dev senior d’une GAFA qui fera passer des entretiens fictifs. On va aussi beaucoup déconstruire cet exercice, aussi bien techniquement (pour aider les gens à se préparer) que mentalement (pour aider les gens à relativiser).

– Votre travail pour cette initiative est bénévole ? Comment couvrez-vous les frais de la plateforme ? Envisagez-vous un financement participatif, autre chose ? Les personnes inscrites devront-elles contribuer financièrement ?

Oui, toute l’équipe est bénévole. Pour le moment on finance les frais d’hébergement de notre poche (heureusement, ce n’est pas trop onéreux). Mais comme on espère qu’Electronic Tales va prendre de l’ampleur, notamment grâce à notre projet de cursus d’excellence pour les minorités de la Tech, il est certain qu’il faudra qu’on cherche (et qu’on trouve) des financements – ne serait-ce que pour que l’équipe puisse dégager du temps de travail pour le projet. On a déjà une petite idée pour ça : développer une activité de consulting pour accompagner les entreprises qui souhaiteraient accueillir des juniors dans leurs équipes.
Ce qui est sûr, en tout cas, c’est qu’on tient coûte que coûte à ce que le projet reste open-source et gratuit.

– Fermez les yeux, respirez lentement, et Imaginez que tout se passe hyper bien et que la plateforme rencontre un grand succès (on vous le souhaite !). Selon vous, qu’est-ce qui aura changé à l’issue de cette expérience ? Et envisagez-vous d’autres actions par la suite, pour aller plus loin ?
Concrètement, si on réussit à créer un cursus qui s’adresse plus particulièrement aux groupes sous représentés mais qui est tellement qualitatif qu’il est reconnu sur le marché du travail, alors on aura réussi à changer quelque chose dans le monde de la tech. Nous faisons l’hypothèse que réduire le gap technique et culturel favorisera le sentiment de légitimité des personnes appartenant aux groupes sous-représentés dans la tech. Si tout se passe pour le mieux, celles-ci poursuivront leurs carrières techniques avec plus de succès, devenant in fine les seniors et des décideurs·euses divers·es dont la tech manque cruellement aujourd’hui. Et nous, si on y arrive, on sera épuisé·e·s mais ravi·e·s, comme disait Aznavour (💗).

Pour aller plus loin :




Contre les GAFAM du légume

Nous avons interrogé Éric Marchand, de la coopérative Jardin’enVie, qui produit et conserve des variétés de semences paysannes.

L’univers impitoyable des semenciers n’a rien à envier à celui des GAFAM, nous explique-t-il, dans un rapprochement saisissant entre les militantismes libriste et agricole.

 

Salut Éric. Peux-tu nous dire qui tu es ? J’ai vu que tu étais un ancien informaticien ?

« Informaticien », j’en sais rien, je ne sais pas comment on appelait ça à l’époque, mais on va dire ça. Oui, effectivement j’ai suivi une formation en informatique et j’ai participé à créer des entreprises d’informatique dans les années 90, en logiciels libres.

 

C’était plutôt nouveau, à l’époque, non ?

Oui, puisque Linux, sa date de naissance, entre guillemets, c’est 1991, et on a démarré en 1993 avec Linux.

L’une de ces entreprises proposait de l’accès à Internet, ce qui n’existait pas en France. FAI et développement de logiciels libres.

 

Vous étiez à la pointe, alors ?

On n’était pas très nombreux à faire ça. Après a démarré feu Mygale et toute la folie Internet, toutes les start-ups et tous les mouvements autour de l’Internet non marchand et solidaire qui ont fini par donner ceux qu’on connaît aujourd’hui, Gitoyen et autres.

 

Tu es un militant de la première heure ou tu es tombé là-dedans par hasard ?

Non, nous avons fait ça sciemment, pour s’opposer à la logique du brevet et de l’appropriation des idées, mais aussi parce que nous avions vu ce que donnait l’informatique par ailleurs, dans des entreprises plus traditionnelles avec une course à la puissance complètement aveugle.

 

J’imagine que c’était plutôt en ville, en tout cas pas du tout dans le milieu agricole ? Cependant j’ai cru comprendre que c’était la ferme de tes parents, ou de tes grands-parents, que tu as reprise là, avec Jardin’enVie ?

Oui, en fait je n’étais pas dans l’agricole d’un point de vue professionnel, mais mes origines familiales, des deux côtés, ont toujours gardé un lien fort avec les cultures sans chimie. Une implication assez forte, puisque l’un de mes grands-pères a participé à la création des croqueurs de pommes, la première association ayant contribué à préserver les variétés fruitières qui étaient menacées à l’époque par l’industrialisation de l’alimentation.

 

Ça faisait partie de ton histoire personnelle.

Oui. C’était pas moi, hein.

 

Bien sûr, mais il y avait un terreau, si tu me permets ce jeu de mots. Ça explique pas mal de choses, de voir l’origine des gens. Et du coup, Jardin’enVie, ça a démarré quand ? D’ailleurs, je dis Jar-di-nen-vie, mais comment tu le prononces ?

Il y a plusieurs façons de le prononcer. D’autres le disent autrement. C’est un peu volontaire que le nom soit un peu protéiforme. Ça n’a pas beaucoup d’importance.

 

Ça a démarré… Eh bien la date est un peu floue, en fait. L’association a été créée en 2007, mais l’idée a germé en 2001, lorsqu’on a été confronté à l’arrivée assez massive des OGM dans la Drôme. Des personnes de tous milieux sociaux et professionnels se sont retrouvées. Il y avait une convergence de différents mouvements, soit anti- soit alter-mondialisation, dont ceux qui étaient issus du logiciel libre, mais aussi d’autres. Notamment c’est la naissance d’ATTAC, sous forme de mouvement d’éducation populaire, ce qu’ATTAC n’est plus. Cette effervescence d’éducation populaire qui a aujourd’hui disparu et qui était à l’époque de fait mise en œuvre dans les rencontres, les forums mondiaux. C’est elle qui a permis à des personnes de se rencontrer, des personnes qui n’étaient pas forcément concernées par le logiciel libre, la question climatique, le problème de la finance… Tout le monde se retrouvait au même endroit au même moment et c’est comme ça que des choses un peu improbables sont nées. En l’occurrence, la question des OGM. Tout le monde arrivait avec sa préoccupation, mais aussi son bout de solution.
Mon approche était économique, autour de la logique du brevet d’un côté, du logiciel libre de l’autre. Ce qu’on avait réussi à faire sur le libre, il devait être possible de le réitérer pour les semences puisque, avec les OGM en plus du certificat d’obtention végétale, arrivait le brevet dans le monde du vivant.

 

Tu pensais que le logiciel libre avait réussi ?

J’en étais sûr ! En 1998, on a organisé avec plein de gens les journées à l’Assemblée Nationale. Le point de vue qu’on défendait c’est que le modèle du logiciel libre avait gagné la partie, mais que le mouvement du Libre l’avait perdue.

C’était le mouvement qu’on appelait INMS, de mémoire les initiales utilisées pour désigner le mouvement militant, Internet non marchand et solidaire. On répondait « tout ce qui est gratuit, c’est là où vous êtes le produit », y compris quand on est militant.

C’est instruits par tout ça que nous avons abordé la réflexion sur les semences. On pouvait voir par avance ce qu’allait devenir Internet, ce qu’il se passerait sur le logiciel libre, puisque nous avions déjà vu des multinationales se construire sur la récupération des semences qui étaient par essence dans le domaine public. Au début du XXᵉ siècle, il n’y avait pas d’appropriation de la semence. Dans les faits il s’agissait d’un commun.
À partir du moment où on a introduit en Europe le certificat d’obtention végétale et d’autre législations qui ont permis à des entreprises de s’approprier l’avenir ou l’exclusivité commerciale de variétés, on a changé la donne.

 

Les semences sont brevetées pour verrouiller le marché. Est-ce que ça a toujours été l’intention des « gros », ou est-ce que ça s’inscrivait dans une démarche positive à l’origine ? Par exemple améliorer les rendements, protéger le volume des récoltes pour nourrir le plus grand nombre, stabiliser la production, etc.

C’est la lecture qu’on a faite sur le développement des entreprises dans la semence, typiquement ;  à partir du moment où il y a possibilité pour des acteurs de s’approprier un domaine par exclusivité, et par exception à ce que le système dans lequel on est prétend défendre, c’est-à-dire les libertés. Le libéralisme parle de ça. Mais plus on parle de liberté, moins il y en a. Par contre, plus il y a de concentration et plus il y a des normes qui excluent au lieu d’inclure. On passe de la loi à la norme, une norme qui est excluante, et qui crée des zones de marché protégées là où on est censé être dans une concurrence libre et non faussée.

 

On sent que tu as beaucoup réfléchi à la question.

C’est sûr que démarrer Internet au début des années 90, ça fait réfléchir à tout ça.

Pour résumer, les multinationales de la semence, Limagrain, Monsanto, Bayer, se construisaient comme ce qu’on appelle aujourd’hui les GAFAM étaient en train de se construire dans le logiciel libre. L’expérience dans le monde agricole a permis d’anticiper ce qu’allaient devenir les GAFAM, et ce qu’on savait sur le logiciel libre nous a permis d’imaginer des solutions sur les semences. Une réflexion croisée. Le point commun, c’est cette histoire d’appropriation, et de concentration des pouvoirs.

Derrière, il y a des différences, quand même. Le logiciel, on peut le multiplier à l’infini pour un coût proche de zéro ; ce n’est pas le cas de la semence. C’est beaucoup de travail physique, qu’on ne peut pas répéter à l’infini. Cultiver devient de plus en plus dur. Le rapport du GIEC ne permet plus l’ambiguïté. Mais quand on observe le vivant et qu’on essaie de cultiver avec lui, eh bien ça fait vingt ans qu’on peut observer les changements.

 

Vous avez démarré en parlant de sauvegarder des semences paysannes non brevetées, et vous en êtes à restaurer la qualité des sols, planter et récolter des tonnes de plantes, acheter du terrain… C’est une démarche qui déborde de partout, finalement. Fanny nous a dit en préparant l’interview : « Quand on parle des semences paysannes on parle de beaucoup de choses (propriété vs communs, liberté vs brevets, biodiversités, alimentation, vie, vivant, coévolution, …) ».

Le début de Jardin’enVie, ce sont des rencontres improbables de gens qui ne se connaissent pas. Il faut que l’histoire commune se construise. C’est un domaine nouveau pour la plupart des gens, qui viennent de la ville pour l’essentiel et qui n’ont jamais semé une seule graine. Cette grande diversité a permis d’aborder la question des semences par tous ses aspects. Les seuls endroits où on pouvait démarrer et faire des expérimentations au départ étaient les jardins des uns et des autres, et le plus grand était le nôtre, parce qu’on était sur une ancienne ferme où il y avait un peu moins d’un hectare à cultiver. Le tout en zone péri-urbaine ou urbaine. Pas de sol, pas de semence. Faire avec le vivant sur des sols morts, ça ne marche pas. La propriété de la terre, sa qualité et l’avenir des semences, c’est lié. La semence est à la base de la plupart des activités économiques indispensables à la vie humaine : alimentation, soin, énergie, logement, textile… Avec à chaque fois des solutions simples, existantes et faciles à mettre en œuvre s’il y a un minimum de volonté politique pour résoudre tous les défis inédits que l’humanité va devoir affronter dans les prochaines années. Nul besoin d’hypothétiques avancées technologiques ou découvertes scientifiques. C’est une très bonne nouvelle : vivre mieux, conquérir plus d’égalité, de démocratie, de libertés peut permettre de sortir des crises actuelles !

 

Le monde paysan avait suivi cette histoire de semences brevetées sans se poser de question ?

Le monde paysan est écartelé. Pris au piège de la finance, il n’a plus de marge de manœuvre. Sans en être sûr parce que je ne suis pas historien, l’un des points frappants c’est que ça commence à l’après-guerre. Il faut nourrir tout le monde, on sort de deux guerres mondiales et il n’y a plus de bras ; il faut tout reconstruire et il n’y a plus personne pour travailler dans les champs. La mécanisation, la standardisation ont été une solution. Avec les capacités techniques de l’époque, les semences diversifiées étaient un problème. Il fallait des semences qui poussent de la même façon, qui sont mûres toutes en même temps, ça permet d’agrandir les champs et de produire avec peu de bras.

 

D’où la suppression des haies ?

En tout cas c’est une clé de lecture possible. Il y en a sans doutes d’autres. On a quand même des tickets de rationnement en France jusqu’au début des années soixante. Et cela collait avec l’idéologie du moment, qui encore aujourd’hui freine notre capacité à développer une approche sensible du monde vivant. Cf. « Semences, une histoire politique » de Christophe Bonneuil, historien des sciences au CNR et Frédéric Thomas, agriculteur.

 

Il y avait une urgence ?

Au minimum, il fallait retrouver l’autonomie alimentaire. Avec moins de personnes pour travailler, une société qui avait complètement changé, où on ne pouvait plus du tout penser la campagne comme elle existait encore quarante ans auparavant.

 

Et ça, ça a changé ? Aujourd’hui on serait capable de nourrir tout le monde sans des fermes gigantesques ?

Oui. La question n’est même plus celle-là. C’est comment éviter les famines, si on continue avec les habitudes alimentaires et le mode de culture dominants qui vont dans le mur. Ils demandent une consommation de ressources que la planète ne peut pas supporter.

 

Combien êtes-vous aujourd’hui chez Jardin’enVie?

Dix personnes en équivalent-temps plein toute l’année, et des saisonniers au printemps et à l’automne mais on est sur un mode investissement. L’activité ne permet pas encore de rémunérer dix personnes à temps plein. On consomme des capitaux pour préparer l’avenir.

 

Pourquoi avoir choisi un statut d’entreprise ? Est-ce que ça ne crée pas de la contrainte (rentabilité, fisc, administration) que vous n’auriez pas en tant qu’association loi 1901 ?

C’est une des réflexions transversales à l’expérience INMS. Tous ceux qui voulaient rester en association n’ont pas pu développer les idées qu’ils avaient, à de rares exceptions. C’est l’une des limites du mouvement du logiciel libre. Survivre grâce aux dons, c’est bien, mais est-ce que ça permet vraiment de développer une ligne d’objectifs et de l’atteindre ?

Nous, nous sommes en entreprise, mais le but, c’est de grandir, pas de grossir.

On retrouve la différence qu’on a relevée tout à l’heure. On peut à la rigueur se passer de capitaux pour une activité qui n’en demande pas ; à partir du moment où il faut acquérir des terres, les remettre en forme parce qu’elles ont été détruites par une politique de terre brûlée, former des gens parce que plus personne n’apprend ces métiers comme nous les pratiquons, restaurer les semences, c’est quelque chose qui demande énormément de ressources et de temps, bien plus que l’informatique.

Il faut se dire que sur le vivant, c’est une démarche de long terme pour apprendre un métier, développer des savoir-faire. Si on n’est pas en capacité de rémunérer des personnes, de faire grandir quelque chose qui soit viable, de former des gens, jamais les semences paysannes ne seront considérées comme une alternative crédible.

C’est aussi ce qu’on peut dire du logiciel libre, d’une certaine manière. Il a conquis des serveurs, mais il n’a pas conquis le poste de travail, alors que d’un point de vue technologique, rien ne l’empêcherait de le faire. Les smartphones sont à base de Linux, mais leurs OS ne sont pas libres.

 

On commence à voir des smartphones dégooglisés, pourtant. Mais ça reste réservé aux personnes qui sont capables de bidouiller.

Ce qui a permis à Google d’imposer sa version Android, c’est son énorme capacité d’investissement. On en revient à une question de capitaux disponibles.

Dans ces conditions, pour l’utilisateur final qui veut dégoogliser son téléphone, en plus de compétences complexes à acquérir, il faut du temps. Alors que je sais le faire, je n’ai toujours pas pris le temps de virer Android de mon propre smartphone.

 

Quelles sont les différences avec une exploitation agricole bio classique ?

Les semences pour l’essentiel, mais pas que. Le bio fonctionne à 98 % avec des hybrides F1 et maintenant des OGM qui ne disent pas leur nom (ils se cachent derrière le vocable matériel biologique hétérogène, introduit dans le règlement AB qui s’appliquera à compter de 2022). C’est un marqueur important. On est dans le même ordre de grandeur que Linux et les GAFAM au début des années 90.
Nous avons fait un pas de côté sur le modèle socio-économique pour pouvoir faire un pas de côté sur les semences.
Nos statuts nous permettent de gérer les semences mais aussi le foncier tels des communs d’une part, et d’autre part de faire appel à l’épargne populaire pour investir. Les sociétés dites agricoles, elles, n’ont pas la possibilité de faire appel à l’épargne, hors fonds agricole pré-existant.

Du coup on peut construire l’équilibre de la structure financière sur une base beaucoup plus diversifiée.
La semence et l’alimentation sont des choses trop sérieuses pour qu’on passe d’une appropriation à une autre. Les paysans ne sont pas les seuls concernés par cette question-là. L’idée consistait à revenir vers une implication de l’ensemble des parties prenantes, les restaurateurs, les épiciers, les gens qui mangent.
Ce qu’on a constaté sur le terrain, c’est que, pour faire des semences de qualité dans le respect du vivant, nous avons aussi besoin des retours des utilisateurs des récoltes. C’est aussi, pas seulement, mais aussi, en fonction de ces retours-là que nous définissons les critères d’évolution des semences à mettre en œuvre lors de la prochaine production de graines.

 

Vous choisissez les graines que vous faites perdurer, c’est ça ?

On conserve les caractéristiques d’usage d’une variété. Si on a affaire à une tomate rouge foncé, on ne va pas la faire aller vers du rose pâle, et si elle est acidulée on ne va pas modifier son goût. On conserve les critères d’intérêt et d’usage de la plante, mais on la laisse évoluer. On parle de coévolution entre les humains, les terroirs et les plantes. On peut, par l’observation, « dialoguer » avec ces êtres vivants pour accélérer l’adaptation des plantes et des lieux dans lesquels on les cultive aux évolutions de leurs milieux de culture, de plus en plus rapides en raison des conséquences du mode de vie actuel des humains les plus riches.

 

Quel est le mode de gouvernance de l’entreprise ?

On essaie de prendre les décisions en commun, c’est pas évident mais on essaie. Là encore nous nous appuyons sur le logiciel libre pour y parvenir. On utilise divers logiciels pour agiter les idées à plusieurs et prendre les décisions à plusieurs.
On met actuellement à jour nos outils numériques pour permettre de faire un pas encore dans cette direction.

 

Des personnes participent à la vie de l’entreprise sans être sur place, sur l’exploitation ?

Entre 150 et 160 coopérateurs à ce jour, dont le groupe d’origine et d’autres qui sont éloignés géographiquement parlant, mais aussi au niveau des métiers exercés. Nous ne sommes pas toujours disponibles au même moment de la journée.

 

Quelles ont été les pires difficultés que vous avez rencontrées ?

Je ne sais pas quelle était la pire. Peut-être l’amoncellement de spécificités au monde agricole. J’ai été entrepreneur dans différents domaines d’activités, et je n’ai jamais rencontré autant d’obstacles multiples et variés en raison du fait que l’agriculture a été exclue de tous les régimes généraux classiques : protection sociale à part, statuts d’entreprise à part, statut social à part, etc. Tout est très fragmenté, plus qu’ailleurs.
Un monde extrêmement novateur pour sa frange marginale et ultra-conservateur pour sa composante majoritaire. Ultra-majoritaire, en tout cas au niveau de ses organisations professionnelles et syndicales !
Ce que nous essayons de faire, qui remet en question la pratique agricole classique, fait que nous avons contre nous la quasi-totalité des organisations agricoles, la bienveillance de beaucoup d’adhérents de ces structures, mais l’hostilité des entités.
Sans notre choix de faire appel à l’épargne populaire, on ne serait pas près d’atteindre nos objectifs, malgré la pandémie qui nous a beaucoup impactés, et les aléas climatiques, de plus en plus imprévisibles, qui se sont conjugués aux conséquences des fermetures administratives.

 

On est loin du cliché du bobo qui revient à la terre et qui plaque tout pour élever des chèvres !

C’est très étrange, le monde agricole est à la fois hyper fermé et hyper ouvert ; notamment, il va devoir s’ouvrir beaucoup et se transformer radicalement, du fait de sa pyramide des âges. La moitié des agriculteurs actifs va partir à la retraite sous peu. C’est un métier qui a été tellement sinistré que la plupart des enfants d’agriculteurs ont renoncé à s’installer en reprenant l’exploitation familiale comme c’était la tradition auparavant. Il y a donc un creux de génération en plus du « papy-boom » qu’on voit dans d’autres métiers.

 

Est-ce que la pandémie, le télétravail du tertiaire et les confinements y ont changé quelque chose ?

Non. C’est déjà terminé. Il suffit de regarder les statistiques de parts de marché des mastodontes de l’alimentaire. Pendant le premier confinement, les gens ne travaillaient pas ou très peu. Il a permis de ramener les gens vers la campagne, mais pendant les autres confinements le travail a été maintenu. Il y a eu le couvre-feu qui a réduit la possibilité de se déplacer, et les gens ont été se mettre dans un endroit où on peut tout trouver. C’est la grande distribution et les plateformes d’achat numérique qui se sont taillé la part du lion. La grande distribution, qui perdait du chiffre d’affaires, a soudainement augmenté son chiffre d’affaires.

 

Qu’est-ce qui a été le plus surprenant, que vous n’aviez pas du tout anticipé dans cette aventure ?

Ce qu’on a découvert avec les semences. On part avec des a priori, qui sont ceux de tout le monde, des semences présentées comme archaïques y compris par la science, plus du tout adaptées aux enjeux du moment.
On est parti pour chercher une alternative aux OGM et en se demandant si ce qu’on raconte sur eux est bien vrai.
Les hybrides F1 et la législation dont le catalogue officiel faisait qu’une semence non inscrite ne peut pas être vendue à des maraîchers ou des agriculteurs.
On ne s’attendait pas à ce que le bio soit envahi de ces semences verrouillées d’un point de vue technologique et juridique. Qu’elles soient incapables de s’interfacer avec le vivant, en raison de leur mode d’obtention, qui consiste à sélectionner des lignées pures. Que les semences soient sclérosées par cet eugénisme, les OGM n’étant que l’achèvement de cette logique entamée depuis longtemps. Ce qu’on voyait comme une menace était déjà notre réalité quotidienne. C’était déjà ce que nous avions dans nos assiettes ! Nous étions confrontés au parachèvement de cette logique, résultat des choix des citoyens des démocraties actuelles.

L’approche est de récupérer de l’autonomie financière et économique car on s’est aperçu que les semences paysannes tenaient la route face aux semences modernes, que tout ce qui était véhiculé à leur sujet était erroné. À tout point de vue. Elles permettaient de retrouver le goût. Elles sont riches en nutriments, notamment en micronutriments, qui ne pèsent pour rien dans le poids final mais qui sont déterminants dans la qualité alimentaire. Une énorme différence, fois trente, fois quarante en termes de micronutriments, même par rapport à des cultures bio. On ne s’y attendait pas du tout non plus.
En quelques années on a pu apporter des solutions à tous les problèmes de la chaîne alimentaire.
Quantité, qualité, mais aussi stopper l’explosion des intolérances et des allergies alimentaires, et puis retrouver le goût. C’est la présence des micro-nutriments qui donne la diversité des saveurs.
Le sans gluten se développe, c’est une industrie en plein développement, mais ça repose sur le fait que les glutens des variétés modernes sont de mauvaise qualité. Les personnes intolérantes au gluten pourraient se remettre à manger du blé si on repart sur des céréales à haute paille.
J’aurais pu citer des dizaines d’autres exemples. Pratiquement partout où il y a un problème alimentaire, les variétés paysannes arrivent avec une réponse.
On a aussi des réponses par rapport au changement climatique parce qu’on produit de l’humus avec les variétés paysannes (en utilisant les méthodes appropriées, évidemment). Alors que même en bio, d’un point de vue statistique et si on s’en tient aux seuls critères obligatoires du label, on continue à détruire plusieurs kilos d’humus pour chaque kilo de nourriture sorti du champ.

 

Si les semences que vous produisez ne sont pas inscrites aux catalogues officiels, ça signifie que c’est hors-la-loi, ce que vous faites ?

Non. Pas en totalité. Là aussi il y a beaucoup de fausses informations qui ont circulé, en fait la vente de variétés non-inscrites aux catalogues n’a jamais été interdite en France, pour vendre à des particuliers. Pas à ce jour, en tout cas. En revanche il y a des restrictions pour vendre à des professionnels, mais nous sommes en capacité de les contourner, de façon tout à fait légale, notamment en s’inspirant des dispositifs mis en place par les multinationales du monde de la semence, qui sont les premières à contourner les lois qu’elles inspirent. En étudiant ça de façon macro-économique, nous nous sommes rendu compte de ça, et faute de mieux pour le moment, nous nous en servons, mais en mode coopératif.
Nos clients professionnels deviennent des coopérateurs à qui nous ne vendons pas la semence, mais à qui nous achetons du travail à façon. C’est légal. Ce qui nécessite de repenser complètement le modèle économique. Mais de toute façon c’est indispensable pour profiter des caractéristiques des variétés paysannes. L’idéal bien sûr, c’est de retrouver un cadre légal de plein droit pour les variétés paysannes. Gandi disait « l’arbre est dans la graine, comme la fin est dans les moyens ». Il y a donc urgence à récupérer la capacité à faire avec des moyens que nous aurons choisis et construits en fonction de nos objectifs.

 

Du coup tu dois avoir plein de casquettes, juriste, économiste…

Il faut avoir de multiples compétences c’est pour ça qu’on ne fait rien tout seuls, c’est un travail de réseau permanent. C’est à ça que sert le réseau de semences paysannes, par exemple, il permet de financer une équipe de juristes payés pour faire de la veille.

 

Vous utilisez exclusivement des logiciels libres. Est-ce que le Libre fournit tout ce qui est nécessaire pour gérer l’informatique d’une exploitation agricole ?

Oui ! Le problème qu’on a, ce sont les humains. À chaque fois qu’on intègre une personne, il faut la former. C’est pour ça que de temps en temps des logiciels propriétaires sont utilisés à Jardin’enVie. C’est le frein humain : la personne, pour être tout de suite opérationnelle, travaille avec le logiciel qu’elle a appris à utiliser par ailleurs, la plupart du temps à l’école, et qui est la plupart du temps un logiciel propriétaire.

C’est parfois compliqué. Les habitudes sont dures à remettre en question. Il faut souvent des débats tendus et houleux pour que les personnes acceptent une formation et l’idée que chercher une fonctionnalité trois clics plus loin (ou moins loin) que d’habitude, c’est pas très grave. Et même que ça vaut le coup !

On n’a aucun problème avec les complets débutants, on leur met un Linux entre les mains, on n’a pas besoin de leur dire quoi que ce soit, ils apprennent tous seuls. Ce sont les gens qui ont de l’expérience, qui sont déjà performants avec les logiciels de leur métier, qui ont des freins.

 

Vous voulez chasser les subventions, y compris européennes. Est-ce que vous ne craignez pas, ce faisant, de vous faire coincer, d’avoir des comptes à rendre ?

Quand on a des capitaux apportés par des citoyens, ça permet de faire face aux pressions. Ça structure un groupe qui est capable de comprendre les rapports de force et d’y réagir.
C’est aussi parce que ces capitaux privés nous permettent de dire non, même s’ils ne sont pas énormes, parce que c’est une marge de manœuvre supplémentaire, ce que le statut associatif ne permet pas sauf à avoir pu amasser, au fil des années, des réserves.
C’est une autre spécificité du monde agricole. Il n’y a pratiquement aucune entreprise qui parvient à être rentable sans subventions, hormis dans des niches comme la vigne. Dans le monde agricole, la subvention n’est pas l’exception, c’est la règle. Nous, nous n’avons pas de subvention de fonctionnement mais d’investissement. Si nous pouvons compter sur une partie de l’épargne des citoyens pour continuer à investir et changer d’échelle, personne ne pourra nous imposer de changer de cap, ou autre. Par contre, rendre des comptes, oui, mais je trouve ça normal. D’ailleurs on le fait spontanément. Toute personne qui veut voir l’intégralité de nos comptes n’a qu’à le demander. Ça fait partie du fonctionnement pour gérer les semences comme des communs, et du modèle économique que nous essayons de construire. Ce n’est pas la semence en tant que telle qui est importante, mais la possibilité de la faire circuler, tout comme les idées et les échanges de savoir-faire nécessaire pour la cultiver et la reproduire.

 

Tu me tends la perche pour la question qui pique : si c’est mal ce que font les labos en brevetant leur semence pour en contrôler la vente, pourquoi votre site est sous licence CC NC ND ? 😉 Pourquoi vous n’ouvrez pas plus l’accès à la diffusion de vos travaux ?

C’est le choix qu’on a fait pour notre site Internet, qui est notre identité. C’est nous qui la déterminons.

Par contre les documents de travail, dans lesquels il y a justement nos savoir-faire, sont complètement libres, il n’y a carrément pas de licence1
. La plupart des personnes avec qui on coopère, notamment le réseau Semences Paysannes, diffuse sans mettre de licence. C’est la reconnaissance par les pairs, tous ceux qui sont passionnés par la variété paysanne et ce qu’elle implique au niveau socio-économique, qui fait qu’il y a transmission, ou non, de l’information.
Mais c’est une question en chantier, qui fait et mérite débat, en particulier pour les données que pour le moment nous ne transmettons pas sans réciprocité.

Est-ce que vous aviez mesuré l’ampleur de la tâche, ou vous vous êtes lancé·e·s en mode YOLO ?

On savait que ce serait énormément de boulot, notamment parce que j’avais connu le monde agricole étant petit. On n’avait pas mesuré, par contre, toutes les réactions que ça allait provoquer, à la fois de rejet et d’adhésion. Encore plus que dans le logiciel libre, il y a une adhésion populaire qui est impressionnante. Encore plus forte. Notre problème, ce n’est pas de trouver des clients, c’est d’arriver à produire pour satisfaire la demande.

 

Évidemment, le logiciel peut être dupliqué pour plein de « clients ».  Les poireaux, quand il n’y en a plus…

C’est ça ! Quand il y a un bug dans la culture, on refait l’année prochaine, on ne code pas un correctif dans la nuit. C’est la grosse différence entre la semence et le logiciel.

 

Est-ce que vous avez atteint une certaine forme d’autonomie, ou est-ce qu’au contraire vous avez besoin d’aide ? Sous quelle forme ?

On n’a pas atteint l’autonomie, on est encore en phase de constitution du capital nécessaire pour franchir les prochaines étapes, et aussi de continuer à rassembler des savoir-faire qui sont en train de disparaître avec les plus anciens. D’autre part les sols aujourd’hui sont tous martyrisés en France. Pour avoir de bons résultats il faut absolument un sol vivant. C’est un obstacle qu’on avait sous-estimé, au départ. Il n’y a aucune aide, aucune subvention mobilisable en France. Il y a des crédits européens pour faire ça. Cependant ils nécessitent un projet réunissant des entreprises privées, des citoyens, mais aussi des élus locaux. Et en France les élus ne sont pas entrés dans cette logique pour aller chercher ces sous. Cet argent n’est pas utilisé en France, alors qu’il l’est dans d’autres pays européens.

Ce sont ces questions-là qui font que nous n’avons pas encore notre autonomie. Les obstacles sont immenses, mais on sait comment les contourner ou faire différemment, on a le savoir-faire. Ce qui manque, ce sont des capitaux.
Par exemple, nos outils sont dimensionnés pour un à trois hectares alors qu’il faudrait cultiver dans de bonnes conditions trente hectares pour être rentable. Sachant que trente hectares, aujourd’hui, c’est une petite ferme. On parle beaucoup des micro-fermes sur un ou deux hectares, mais ce n’est pas qu’avec ce modèle qu’on résoudra le problème alimentaire. Même si ces fermes ont leur intérêt, elles ne suffiront jamais, à la manière des AMAP qui, dans les pays les plus développés comme le Japon, nourrissent au maximum 30 % de la population.

Il y a un effet d’échelle qui est nécessaire pour amortir les investissements. Sur un hectare, ça demande cinq ans de travail, soit 100 000 € avec une rémunération au SMIC par heure travaillée, si on veut rendre un sol de nouveau vivant.

Il y a une autre raison. Pour faire de la semence, il faut des distances d’isolement pour éviter que deux variétés d’une même espèce se croisent entre elles de façon non souhaitée, et qu’on perde toutes les variétés. Il nous faut soit des équipements pour limiter la circulation des pollens ou de la surface pour pouvoir faire de la semence. En fait il nous faut un peu des deux.

La phase actuelle, c’est une levée d’épargne auprès de nos clients, ou de toute personne intéressée, qui peut s’inscrire dans l’objet social de Jardin’enVie. Apporter de l’épargne à une entreprise telle que la nôtre, c’est manifester son accord avec l’objet social. Chaque personne aujourd’hui qui nous apporte un euro nous permet d’aller en chercher deux à trois auprès des institutions financières d’une part, et d’autre part, via son adhésion à l’objet social, qui est précis, d’aller voir les élus locaux ou les professionnels avec une force considérable. Ce n’est pas juste une chimère, parce que, de fait, les personnes qui s’impliquent, au-delà de l’achat d’une part sociale, nous apportent énormément de richesse, dans le sens connaissance d’un terroir, évolution de nos savoir-faire, et gestion de ces ressources comme des communs.

Ça permet de passer d’un mode artisanal et expérimental à un déploiement des savoir-faire, dans un premier temps au sein de Jardin’enVie et au-delà par la suite. L’une des choses qui se fait déjà, c’est de permettre à d’autres agriculteurs de faire évoluer leurs pratiques, de transformer leur activité, voire carrément de s’installer.

 

À rapprocher du modèle des CHATONS ?

Oui, c’est un peu la même logique.

Notre réflexion actuelle, c’est de faire le lien entre tout ce qui a trait aux communs, à la fois l’approche économique et la gouvernance, qui rapproche des secteurs d’activité très différents.
Au final, nous sommes confrontés aux même logiques économiques. De ce point de vue, j’estime que je n’ai pas changé de métier, entre informaticien et agriculteur maintenant.

 

Sauf que tu as plus mal au dos le soir ? 🙂

Même pas ! Être immobile sur une chaise, c’est pas forcément bon pour le squelette. Il y a peut-être des inconvénients, mais blague à part, dans le logiciel libre il nous fallait déjà trouver des solutions pour changer le modèle économique si on voulait vivre de son travail.  C’est pareil avec les variétés paysannes, nous sommes obligés d’être très inventifs sur le juridique, le financier, le social… Les réponses se ressemblent beaucoup, et les deux mondes peuvent s’apporter mutuellement. D’ailleurs, nous avons organisé des rencontres entre les semences paysannes et le logiciel libre à plusieurs reprises.

 

Ah oui, nous avons participé à une journée avec les Incroyables Comestibles d’Amiens.

Justement, une des entreprises d’informatique à laquelle j’ai contribué dans les années 90 est à Amiens. Les premières rencontres que nous avons organisées sur cette thématique croisée doivent dater de 2007 ou 2009… Elles n’ont pas forcément généré l’élan que nous espérions, parce qu’il y a quand même un écart entre la culture informatique et la culture paysanne. À nous de faire un effort de lucidité pour comprendre pourquoi ça n’a pas fonctionné plus tôt.

 

Le mot de la fin

Pour un exploitant agricole, a priori assez éloigné de l’informatique, l’utilisation de logiciel libre à 100 % dans un cadre d’entreprise, ça fonctionne et ça apporte des solutions métier. On n’utilise même pas Google ! Même notre présence sur les réseaux sociaux est limitée, mais pour autant on a de plus en plus de contacts, de sollicitations. Les réseaux sociaux nous servent juste à aller chercher les gens. Ça surprend toujours les personnes qui arrivent. Elles estiment que nous nous tirons une balle dans le pied en refusant de les utiliser à fond. Nous parvenons malgré tout à augmenter notre chiffre d’affaires sans accepter les conditions des réseaux sociaux contraires à nos objectifs d’émancipation et de déconcentration des pouvoirs. On est bien présents sur Facebook, on a bien une page, mais nous l’utilisons en mode « pirate », pour profiter de leur force de frappe et amener les gens vers notre site web, qui lui n’est pas une page Facebook.

Nous sommes en train de développer un logiciel métier spécifique pour accélérer la coévolution entre les plantes, les humains et les terroirs, en ajoutant aux savoirs des anciens ce que nous apportent la science et l’informatique d’aujourd’hui. Nous voulons accroître notre capacité à interagir avec le vivant via l’analyse de données.

Enfin, les spécificités de notre métier sont telles que nous n’avons pas trouvé de boutique en ligne, même dans le libre, qui permette de commercialiser ce que nous vendons ; nous créons donc notre propre interface de vente en ligne à partir de briques libres. C’est un projet qui n’est pas encore complètement abouti, hein, il nous faut encore quelques semaines. Nous comptons créer une communauté autour de ce logiciel lorsqu’il aura fait ses premiers pas. Là encore, c’est la même chose que pour les variétés paysannes : si on n’échange pas, on n’avance pas.

 

Pour aller plus loin :

Les photos nous ont été fournies par Jardin’enVie.




À l’ère de la surveillance numérique – Interview d’Antoine Tricot

Sur les ondes de France Culture, Antoine Tricot a récemment cosigné une série de quatre épisodes sur La Série Documentaire intitulée « À l’ère de la surveillance numérique ». Quatre épisodes pour parler du capitalisme de surveillance, de pouvoirs étatiques sur les outils numériques… et de comment s’y soustraire. Quatre épisodes que nous vous invitons à écouter, au contenu bourré d’informations, d’ambiances sonores, de témoignages de différents milieux professionnels, et dont nous avons souhaité interroger l’un des auteurs.

Capture écran de la page de l'émission
Capture écran de la page de la série – Cliquez pour accédez aux émissions

Bonjour Antoine, peux-tu te présenter ?

Je suis journaliste et je travaille principalement pour les émissions documentaires de la radio publique France culture. Je m’intéresse à des sujets très divers comme les quartiers populaires et les ruralités mais j’ai un petit tropisme sur les questions que posent à la société les technologies numériques et leurs usages. J’ai d’ailleurs commencé à France Culture en 2013 comme stagiaire dans l’émission Place de la Toile de Xavier De La Porte. J’ai ensuite pu organiser quelques émissions autour de ces sujets lorsque je travaillais pour l’émission Du Grain à Moudre, notamment celle intitulée « Que reste-t-il du logiciel libre ? » en 2016 où l’on a fait dialoguer Pierre-Yves Gosset de Framasoft et Bernard Ourghanlian de Microsoft ainsi qu’Amaëlle Guiton de Libération. Dernièrement, j’ai produit pour l’émission LSD – La Série Documentaire une série de 4 documentaires radio sur la surveillance numérique.

Le fonctionnement de LSD n’étant pas forcément connu de toutes et tous, peux-tu nous dire qui a travaillé sur ce documentaire audio ?

L’équipe d’un LSD est assez simple. Outre Perrine Kervran et Maryvonne Abolivier qui coordonnent l’émission, nous sommes une vingtaine de travailleuses et travailleurs indépendant.es qui proposons nos sujets régulièrement. Nous sommes ce que l’on appelle dans le jargon de la radio des « producteurs et productrices délégué⋅es ». Nous concevons les projets, proposons un découpage en quatre épisodes, nous choisissons les intervenant.es, préparons et dirigeons les interviews, écrivons et interprétons les voix-off (on appelle ça les « micros »)… Pour moi c’est un métier entre celui d’auteur et celui de journaliste. Nous travaillons avec un réalisateur ou une réalisatrice de France Culture pour monter les émissions, les mettre en son et en musique. Ici j’ai travaillé avec Rafik Zénine avec qui j’avais déjà travaillé avec plaisir sur une série autour des jeux vidéo. Et ce sont des technicien⋅nes du son qui s’occupent de la prise de son et du mixage final. Pour tous les citer, on a travaillé cette fois avec Laurent Macchietti, Martin Troadec, Valérie Lavallart et Eric Boisset.

Donc, concernant la série « À l’ère de la surveillance numérique » : comment t’es venue l’idée de ce sujet ? Et as-tu su comment la traiter dès le départ ?

L’idée de cette série est née durant le confinement. C’est un sujet que je suis depuis longtemps mais c’est à l’occasion d’un projet collectif réalisé pour LSD pendant le premier confinement et intitulé « Un printemps au temps du confinement » que j’ai commencé à en parler avec Perrine Kervran. Il me semblait que durant cette période si particulière, le débat notamment autour de l’application Stop Covid, des visioconférences et du télétravail, avait pris une amplitude rarement atteinte pour des sujets numériques qui ne mobilisent habituellement qu’une faible part de la population.

Au départ, je voulais donc surtout parler de ce que le numérique fait à nos vies et à notre société. Mais en rédigeant le projet, je me suis rendu compte que la question de la surveillance numérique revenait sans cesse. Elle était transversale à tous les autres sujets auxquels je pouvais penser. Y consacrer seulement un épisode sur quatre ne me semblait donc pas suffisant. D’autant plus que les ramifications de la question sont vraiment très complexes. J’ai donc proposé à France Culture d’angler toute la série autour de cette question et c’est ce qui a finalement été accepté à la fin de l’été 2020.

Par où as-tu commencé ?

Je commence toujours ma préparation de la même manière : par une boulimie de lectures. Que ce soit des articles scientifiques, des articles journalistiques, des livres mais aussi de la fiction en tout genre qui aborde d’une manière ou d’une autre le sujet. Sur des sujets internationaux comme celui-ci, j’essaie de varier les points de vue en lisant en français, en anglais et en allemand. Très vite, je me suis rendu compte que la surveillance numérique est extrêmement documentée et il a été difficile de faire un tri entre tout ce que je trouvais. J’ai rarement eu aussi souvent peur de passer à côté de quelque chose d’essentiel, de gommer la complexité, de tomber dans la caricature… Et à la fois, pour rendre intelligible le sujet pour toutes et tous, il était nécessaire de ne pas vouloir trop en dire de peur d’embrouiller les enjeux.

Sur la forme, toujours, comment s’est fait le choix des intervenant⋅es ?

C’est pour moi le plus difficile et une très grande partie du travail. Je ne cherche pas quelqu’un parce qu’il est connu et s’exprime beaucoup sur la question. Au contraire, le documentaire, en sortant de la maison de la radio, me semble permettre de donner la parole à d’autres que l’on entend moins. Je cherche des personnes qui ont une perspective particulière qui va éclairer la question de manière différente à chaque interview et permettre ainsi de faire avancer la narration.

Je cherche aussi des situations sonores. C’est-à-dire des situations qui vont faire entendre une ambiance, faire voyager l’auditeur quelque part où il n’irait pas forcément tout seul, lui faire comprendre des choses au-delà des mots par une ambiance. Ça peut-être par exemple la visite d’un Data Center (très sonore) ou bien le check-up des pisteurs présent sur mon smartphone avec une militante de Exodus Privacy. Cela permet des dialogues plus concrets, plus imagés, plus vivant aussi.

 

Un des enjeux est aussi de veiller à la parité (ou en tout cas essayer de s’en approcher) de voix féminines et masculines. Cela n’a pas été évident pour ce sujet même si les choses changent peu à peu et que certaines femmes deviennent un peu plus visibles. Il faut toujours un peu plus de temps pour trouver des interlocutrices plutôt que des interlocuteurs.

Trouver le bon équilibre entre tous ces critères est vraiment précaire et ça me terrorise jusqu’au dernier moment de ne pas avoir le bon casting. Tout se monte, mais la qualité des paroles récoltées fait beaucoup à la qualité d’un documentaire et au temps que l’on va passer sur le montage. Comme je ne veux pas faire perdre du temps aux gens en les interviewant pour ensuite m’apercevoir au montage que leur propos passe un peu à côté du sujet ou bien qu’on n’a pas la place de le mettre, je me mets énormément de pression. Malheureusement, ça arrive parfois que l’on soit obliger de passer à la trappe une interview pour de multiples raisons. On ne peut pas tout prévoir.

Et combien de temps l’ensemble du travail vous a-t-il pris ?

J’aurai du mal à dire exactement combien de temps j’y ai passé à temps plein. Environ 4 mois très chargés. En tout cas c’est très intense à chaque fois et je finis épuisé.

J’ai travaillé sur la préparation entre juillet et septembre 2020 en faisant d’autres projets à côté. Puis à temps (plus que) plein de mi-novembre à début janvier. Ensuite il y a eu 2 semaines de tournages, 5 semaines de montages, 2 semaines d’écriture de la voix off, puis 1 semaine de mixage ce qui nous a amené jusqu’à mi-mars 2021. Donc oui, 4 gros mois sans compter la rédaction du projet au départ.

Rentrons un peu dans le détail des épisodes.

L’épisode 1, « Capitalisme de surveillance » est évidemment un sujet qui nous touche particulièrement à Framasoft. Cela fait quelques années que nous participons à sensibiliser à cette problématique. Un de nos administrateurs bénévoles que tu as interviewé, Christophe Masutti, a même écrit un ouvrage dessus. Peux-tu nous en dire plus sur cet épisode, notamment sur ce qui t’a marqué, et ce que tu y as toi-même appris ?

Épisode 1 : Le capitalisme de surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Ce qui me semblait important c’était de partir de ce que l’on voit le plus au quotidien : la publicité ciblée puis de montrer petit à petit l’ampleur des enjeux que peut poser la collecte massive des données numériques par des entreprises privées.

Mais je voulais aussi montrer que l’on n’est pas arrivé par hasard à cette idée de faire des profits en vendant, louant, échangeant de l’information sur les clients en puissance que sont les usagers d’internet. C’est le résultat d’une longue évolution de l’économie, du marketing et de l’industrie, en particulier américaine. Christophe Masutti l’explique très bien dans son livre Affaires privées et dans ses articles. Mais c’est rarement rappelé dans les travaux journalistiques sur la question. Heureusement, les travaux de la chercheuse américaine Shoshana Zuboff ont enfin obtenu récemment un écho que toutes les autres personnes travaillant sur ces questions depuis longtemps espéraient avoir un jour.

Ce qui m’a le plus marqué c’est bien sûr les conséquences sur la vie politique que peuvent avoir ces pratiques de traitement et d’exploitation des données à grande échelle. Ce qu’a révélé le scandale Cambridge Analytica est pour moi décisif pour comprendre comment se fabrique la politique actuellement. Les politiques ne parlent plus à un peuple de citoyens mais à des segments de consommateurs. C’est ce qui explique des discours politiques qui paraissent parfois contradictoires pour ceux qui, comme les journalistes, se situent au-delà des bulles d’informations et les reçoivent tous en même temps. Mais il faut comprendre que très peu de personnes ont une vue globale de l’information à un instant T. Ce qui compte pour un politique n’est plus de persuader une majorité d’électeurs sur un sujet donné, mais de convaincre des groupes très restreints sur des sujets de niches en adoptant une posture qui les séduit. Ce n’est pas infaillible et c’est plus limité en Europe qu’aux États-Unis du fait d’une réglementation plus protectrice des données. Mais je pense qu’il faut aujourd’hui en être conscient et en informer les citoyens si l’on veut se positionner, comme le fait Framasoft, contre ce modèle de surveillance numérique et y apporter les bonnes réponses.

Le second épisode : « Géopolitique de la surveillance numérique » est un sujet assez peu traité par les médias. Là encore, quel sentiment gardes-tu de cet épisode ?

Épisode 2 : Géopolitique de la surveillance numérique - Cliquez l'image pour accéder à la page.
Épisode 2 : Géopolitique de la surveillance numérique – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis parti d’une question assez simple : est-ce que la NSA ou bien les services Chinois lisent mes SMS ? C’est un peu ce que tout le monde se demande depuis Snowden. Mais la réponse est en fait très difficile à donner pour une seule et bonne raison : on a très peu d’informations fiables sur le sujet. De manière pas tout à fait étonnante : les espions ne parlent pas beaucoup. Certes les révélations de Snowden et les quelques leaks qui ont touché les entreprises de sécurité ces dernières années nous donnent tout de même des pistes. Mais on parle de documents qui ont maintenant parfois plus de dix ou quinze ans et entre ce qu’affichent les entreprises ou les États en interne et la réalité des pratiques, il y a parfois de grandes différences. De plus, je me suis aperçu que pour comprendre les documents de l’Affaire Snowden, il fallait souvent interpréter d’obscurs schémas, notices, slides, etc. Alors un peu comme les exégèses religieuses, des visions différentes s’opposent. Certaines plus alarmistes, d’autre plus mesurées. Attention, tout le monde est d’accord pour dire que les agences de renseignements de la plupart des États scrutent ce qu’il se passe sur internet à grande échelle. Mais le débat porte sur les capacités des services secrets des différents pays à collecter de manière massive les données, ce qu’ils peuvent faire et qui ils surveillent exactement. On ne peut pas dire que ce soient des sujets qui sont peu abordés dans les médias depuis l’affaire Snowden. Au contraire même. Mais ils le sont souvent de manière schématique.

Je parle de géopolitique car c’est ce qui s’est imposé assez vite dans ma tête : cette question de la surveillance numérique a des conséquences concrètes pour les citoyens de nombreux pays, mais elle a un impact aussi très important sur les relations internationales. C’est aujourd’hui un véritable espace de compétition internationale et d’affrontement. Et ça ne va pas aller en s’arrangeant.

On se doute que tu n’as pas de boule de cristal, mais suite à ce que tu as lu/vu/entendu : comment imagines-tu la suite des événements concernant, justement, la géopolitique de la surveillance ? Dit autrement, si tu avais la possibilité d’aller enquêter plus avant, quels seraient les sujets que tu aimerais traiter ?

J’aimerais beaucoup être un petit lutin pouvant me glisser dans les centres de renseignements de la Chine et dans les bureaux de la NSA pour pouvoir répondre à cette question.

Ce qui me paraît probable c’est que la concurrence entre les pays pour récolter le plus d’informations possible ne va pas diminuer. Cela va ouvrir encore plus d’opportunités pour toute une industrie privée fabriquant des « armes » numériques. Il y a fort à parier que ces « armes » soient un jour réutilisées par des groupes criminels pour leurs propres usages. Donc, comme le dit la juriste Aude Géry dans le documentaire cette militarisation d’Internet va avoir et a déjà des conséquences rudes pour les usagers d’Internet. Par ailleurs, l’augmentation d’acteurs privés collaborant avec les services de renseignements étatiques soulèvent aussi des questions de contrôle de ces pratiques par les gouvernements et par les parlements.

La troisième séquence de la série s’intéresse à la « Safe city ». Honnêtement, c’est un sujet que nous maîtrisons moins. En plus des militant⋅es de La Quadrature (coucou !) qui coordonnent notamment la campagne « technopolice », tu t’es rendu à Roubaix au Centre de Supervision Urbaine qui organise entre autres la gestion des caméras de surveillance de la ville. C’est à la fois un petit choc cognitif d’entendre les deux parties (citoyenne/militante, et « forces de l’ordre », comme on les appelle maintenant), et pourtant, on sent chez l’officier directeur de ce centre à la fois un grand professionnalisme, mais aussi poindre la critique des limites d’un tel système, dépendant de technologies extérieures. La police dépendant des industriels pour faire leur travail, ce n’est pas forcément nouveau, mais avec ton regard de journaliste, comment perçois-tu cette transition vers le numérique (« digitalisation », dirait-on dans certain milieux) ? Notamment en ce qui concerne la question de l’intelligence artificielle ?

(HS: on en profite pour signaler à celleux que ça intéresse une autre émission de France Culture, « Pass sanitaire et identité numérique : quels dangers pour nos libertés ? » avec l’incontournable Olivier Tesquet, mais aussi William Eldin, CEO de l’entreprise XXII dont les technos nous font plus flipper que rêver, et que tu interviewais aussi dans cet épisode 3)

Épisode 3 : Dans les allées de la safe city - Cliquez l'image pour accéder à la page.
Épisode 3 : Dans les allées de la safe city – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Pour moi la vidéosurveillance, d’autant plus si elle est automatique, est un parfait exemple de solutionnisme technologique et c’est là où une partie de l’approche de La Quadrature du net me parle. Toute une série de facteurs d’ordre économiques, sociaux, politiques créent des situations d’insécurité et de la violence dans la société. Mais plutôt que de se confronter aux causes réelles du phénomène, on présente une solution technique comme à même d’éliminer tous les symptômes. Alors certains mettent en place des dispositifs avec professionnalisme et déontologie comme c’est le cas de Christian Belpaire à Roubaix avec qui il est vraiment intéressant d’échanger sur ces questions. Certains entrepreneurs réfléchissent sincèrement comme William Eldin qui dirige l’entreprise XXII sur ce qu’ils produisent et sur les moyens d’utiliser à bon escient la vidéosurveillance automatique. Dans des situations particulières cela peut certainement être très utile. Mais à aucun moment on pose la question du rapport coût/efficacité/conséquences pour les Droits humains. La Cour des Comptes elle-même a mis en garde les collectivités locales contre les dépenses liées à la vidéosurveillance dans la mesure où aucune enquête ne prouve jusqu’à présent son efficacité pour lutter contre la délinquance par rapport aux dispositifs préexistant. Mais cela n’empêche pas les politiques d’en installer toujours plus. Je le vois concrètement à Saint-Denis où j’habite depuis les dernières élections municipales de 2020. Les entreprises ne s’y trompent pas non plus. La pression sur les collectivités locales est très importante car les sommes en jeu sont colossales. Et l’argent qui est utilisé là, n’est pas utilisé ailleurs.

Les investissements dans ce domaine participent d’une logique politique actuelle qui préfère mettre beaucoup de sous sur un temps réduit dans des équipements plutôt que de financer sur le long terme des salaires. Pourtant, j’ai passé beaucoup de temps dans les quartiers populaires à Dunkerque et j’ai pu observer l’impact positif que pouvait avoir la présence des éducateurs de rue sur la délinquance et bien d’autres situations de détresse. Et pourtant, je ne connais aucun politique qui actuellement se vante d’augmenter les ressources de ces dispositifs de prévention spécialisée.

Enfin, la quatrième et dernière partie s’intéresse aux solutions. Là encore, on y croise des gens proches de Framasoft ou qu’on aime beaucoup (coucou Geoffrey), et même des personnes de Framasoft (l’une de nos co-présidentes, Maiwann). Toujours sans redire ce qui s’est dit dans le documentaire, quels étaient tes sentiments en interrogeant ces chercheurs, journalistes, militant⋅es ? T’es-tu dit que c’était foutu ou qu’il restait de l’espoir ?

Épisode 4 : Échapper à la surveillance - Cliquez l'image pour accéder à la page et écouter l'épisode sur le site de France Culture.
Épisode 4 : Échapper à la surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis de nature optimiste. Des peuples ont renversé des autocrates tout puissants tout au long de l’histoire. Rien n’est définitif. On parle aujourd’hui plus que jamais de ces dispositifs de surveillance numérique. On commence à comprendre le danger qu’ils représentent pour la démocratie. Des structures comme Framasoft obtiennent une audience auprès du grand public qu’aucun bidouilleur du logiciel libre n’a eu jusqu’à présent. De plus en plus de personnes comprennent les nécessités d’étendre le chiffrement à toutes les communications numériques. L’application Signal s’impose comme une référence dans le domaine de la messagerie… Alors certes, la puissance des multinationales peu vertueuses et des autocraties sans scrupule n’en sort pas diminuée. Mais il y a de l’espoir. Et ce que j’aborde dans le documentaire n’est qu’une toute petite partie des initiatives et résistances qui existent et se développent aujourd’hui.

Au final, maintenant ce travail publié et diffusé, il y a forcément pour nous une frustration à ce que ce travail de vulgarisation et de sensibilisation, qu’on considère comme important et largement financé par de l’argent public, ne soit pas sous licence libre (si les hautes sphères de Radio France nous lisent et veulent en discuter, on est disponibles pour en parler !). Cependant, te concernant, quelles suites souhaiterais-tu voir donner à cette série ?

La licence n’est pas libre car actuellement Radio France tente de reprendre la main sur la diffusion de ses podcasts face aux plateformes qui réalisent des profits grâce aux productions du service public. Le paradoxe est donc qu’il faut restreindre la diffusion pour qu’elle soit plus pérenne et ne soit pas soumise au bon vouloir des Google, Apple et autres Spotify. Cependant toutes les productions de France Culture sont disponibles sur le site internet tant que Radio France restera un service public. On ne peut donc qu’espérer qu’un maximum de personnes écoute, partage, commente, critique et se réapproprie les pistes que j’ai déployées dans cette série documentaire. Ce n’est qu’une brique de plus dans les efforts fait pour documenter et réfléchir la place de la technologie dans la société et il reste beaucoup à dire et à faire.

Dernière question, traditionnelle : y a-t-il une question que l’on ne t’a pas posée ou un élément que tu souhaiterais ajouter ?

Demandez à Google et à la NSA… ils doivent bien savoir ce que l’on a oublié.

Merci Antoine !




Partagez l’inventaire de votre bibliothèque avec vos proches sur inventaire.io

Inventaire.io est une application web libre qui permet de faire l’inventaire de sa bibliothèque pour pouvoir organiser le don, le prêt ou la vente de livres physiques. Une sorte de méga-bibliothèque communautaire, si l’on veut. Ces derniers mois, Inventaire s’est doté de nouvelles fonctionnalités et on a vu là l’occasion de valoriser ce projet auprès de notre communauté. On a donc demandé à Maxlath et Jums qui travaillent sur le projet de répondre à quelques unes de nos questions.

Chez Framasoft, on a d’ailleurs créé notre inventaire où l’on recense les ouvrages qu’on achète pour se documenter. Cela permet aux membres de l’association d’avoir un accès facile à notre bibliothèque interne. On a aussi fait le choix de proposer ces documents en prêt, pour que d’autres puissent y accéder.

Salut Maxlath et Jums ! Pouvez-vous vous présenter ?

Nous sommes une association de deux ans d’existence, développant le projet Inventaire, centré autour de l’application web inventaire.io, en ligne depuis 2015. On construit Inventaire comme une infrastructure libre, se basant donc autant que possible sur des standards ouverts, et des logiciels et savoirs libres : Wikipédia, Wikidata, et plus largement le web des données ouvertes.

Le projet grandit également au sein de communautés et de lieux : notamment le mouvement Wikimedia, l’archipel framasoftien à travers les Contribateliers, la MYNE et la Maison de l’Économie Circulaire sur Lyon, et Kanthaus en Allemagne.

L’association ne compte aujourd’hui que deux membres, mais le projet ne serait pas où il en est sans les nombreu⋅ses contributeur⋅ices venu⋅es nous prêter main forte, notamment sur la traduction de l’interface, la contribution aux données bibliographiques, le rapport de bugs ou les suggestions des nouvelles fonctionnalités.

Vous pouvez nous en dire plus sur Inventaire.io ? Ça sert à quoi ? C’est pour qui ?

Inventaire.io se compose de deux parties distinctes :

  • D’une part, une application web qui permet à chacun⋅e de répertorier ses livres en scannant le code barre par exemple. Une fois constitué, cet inventaire est rendu accessible à ses ami⋅es et groupes, ou publiquement, en indiquant pour chaque livre si l’on souhaite le donner, le prêter, ou le vendre. Il est ensuite possible d’envoyer des demandes pour ces livres et les utilisateur⋅ices peuvent prendre contact entre elleux pour faire l’échange (en main propre, par voie postale, peu importe, Inventaire n’est plus concerné).
  • D’autre part, une base de données publique sur les auteurs, les œuvres, les maisons d’éditions, etc, qui permet à chacun⋅e de venir enrichir les données, un peu comme dans un wiki. Le tout organisé autour des communs de la connaissance (voir plus bas) que sont Wikipédia et Wikidata. Cette base de données bibliographiques permet d’adosser les inventaires à un immense graphe de données dont nous ne faisons encore qu’effleurer les possibilités (voir plus bas).

L’inventaire de Framasoft sur inventaire.io

Inventaire.io permettant de constituer des bibliothèques distribuées, le public est extrêmement large : tou⋅tes celleux qui ont envie de partager des livres ! On a donc très envie de dire que c’est un outil pour tout le monde ! Mais comme beaucoup d’outils numériques, l’outil d’inventaire peut être trop compliqué pour des personnes qui ne baignent pas régulièrement dans ce genre d’applications. C’est encore pire une fois que l’on rentre dans la contribution aux données bibliographiques, où on aimerait concilier richesse de la donnée et facilité de la contribution. Cela dit, on peut inventorier ses livres sans trop se soucier des données, et y revenir plus tard une fois qu’on se sent plus à l’aise avec l’outil.

Par ailleurs, on rêverait de pouvoir intégrer les inventaires des professionnel⋅les du livre, bibliothèques et librairies, à cette carte des ressources, mais cela suppose soit de l’interopérabilité avec leurs outils existants, soit de leur proposer d’utiliser notre outil (ce que font déjà de petites bibliothèques, associatives par exemple), mais inventaire.io nous semble encore jeune pour une utilisation à plusieurs milliers de livres.

Quelle est l’actualité du projet ? Vous prévoyez quoi pour les prochains mois / années ?

L’actualité de ces derniers mois, c’est tout d’abord de nouvelles fonctionnalités :

  • les étagères, qui permettent de grouper des livres en sous-catégories, et qui semble rencontrer un certain succès ;
  • la mise en place de rôles, qui va permettre notamment d’ouvrir les taches avancées d’administration des données bibliographiques (fusions/suppressions d’édition, d’œuvre, d’auteur etc.) ;
  • l’introduction des collections d’éditeurs, qui permettent de valoriser le travail de curation des maisons d’édition.

Pas mal de transitions techniques sous le capot aussi. On n’est pas du genre à changer de framework tous les quatre matins, mais certains choix techniques faits au départ du projet en 2014 – CoffeeScript, Brunch, Backbone – peuvent maintenant être avantageusement remplacés par des alternatives plus récentes – dernière version de Javascript (ES2020), Webpack, Svelte – ce qui augmente la maintenabilité et le confort, voire le plaisir de coder.

Autre transition en cours, notre wiki de documentation est maintenant une instance MediaWiki choisie entre autres pour sa gestion des traductions.

Le programme des prochains mois et années n’est pas arrêté, mais il y a des idées insistantes qu’on espère voir germer prochainement :

  • la décentralisation et la fédération (voir plus bas) ;
  • les recommandations entre lectrices : aujourd’hui on peut partager de l’information sur les livres que l’on possède, mais pas les livres que l’on apprécie, recommande ou recherche. Même si une utilisation détournée de l’outil est possible en ce sens et nous met aussi en joie (oui, c’est marrant de voir des humains détourner une utilisation), on devrait pouvoir proposer quelque chose pensé pour ;
  • des paramètres de visibilité d’un livre ou d’une étagère plus élaborés : aujourd’hui, les seuls modes de partage possible sont privé/amis et groupes/public, or amis et groupes ça peut être des personnes très différentes avec qui on n’a pas nécessairement envie de partager les mêmes choses.

Enfin tout ça c’est ce qu’on fait cachés derrière un écran, mais on aimerait bien aussi expérimenter avec des formats d’évènements, type BiblioParty : venir dans un lieu avec une belle bibliothèque et aider le lieu à en faire l’inventaire.

C’est quoi le modèle économique derrière inventaire.io ? Quelles sont/seront vos sources de financement ?
Pendant les premières années, l’aspect « comment on gagne de l’argent » était une question volontairement laissée de côté, on vivait avec quelques prestations en micro-entrepreneurs, notamment l’année dernière où nous avons réalisé une preuve de concept pour l’ABES (l’Agence bibliographique pour l’enseignement supérieur) et la Bibliothèque Nationale de France. Peu après, nous avons fondé une association loi 1901 à activité économique (voir les statuts), ce qui devrait nous permettre de recevoir des dons, que l’on pourra compléter si besoin par de la prestation de services. Pour l’instant, on compte peu sur les dons individuels car on est financé par NLNet via le NGI0 Discovery Fund.

Et sous le capot, ça fonctionne comment ? Vous utilisez quoi comme technos pour faire tourner le service ?
Le serveur est en NodeJS, avec une base de données CouchDB, synchronisé à un Elasticsearch pour la recherche, et LevelDB pour les données en cache. Ce serveur produit une API JSON (documentée sur https://api.inventaire.io) consommée principalement par le client : une webapp qui a la responsabilité de tout ce qui est rendu de l’application dans le navigateur. Cette webapp consiste en une bonne grosse pile de JS, de templates, et de CSS, initialement organisée autour des framework Backbone.Marionnette et Handlebars, lesquels sont maintenant dépréciés en faveur du framework Svelte. Une visualisation de l’ensemble de la pile technique peut être trouvée sur https://stack.inventaire.io.

Le nom est assez français… est-ce que ça ne pose pas de problème pour faire connaître le site et le logiciel à l’international ? Et d’ailleurs, est-ce que vous avez une idée de la répartition linguistique de vos utilisatrices ? (francophones, anglophones, germanophones, etc.)
Oui, le nom peut être un problème au début pour les non-francophones, lequel⋅les ne savent pas toujours comment l’écrire ou le prononcer. Cela fait donc un moment qu’on réfléchit à en changer, mais après le premier contact, ça ne semble plus poser de problème à l’utilisation (l’un des comptes les plus actifs étant par exemple une bibliothèque associative allemande), alors pour le moment on fait avec ce qu’on a.

Sticker inventaire.io

En termes de répartition linguistique, une bonne moitié des utilisateur⋅ices et contributeur⋅ices sont francophones, un tiers anglophones, puis viennent, en proportion beaucoup plus réduite (autour de 2%), l’allemand, l’espagnol, l’italien, suivi d’une longue traîne de langues européennes mais aussi : arabe, néerlandais, portugais, russe, polonais, danois, indonésien, chinois, suédois, turc, etc. À noter que la plupart de ces langues ne bénéficiant pas d’une traduction complète de l’interface à ce jour, il est probable qu’une part conséquente des utilisatrices utilisent l’anglais, faute d’une traduction de l’interface satisfaisante dans leur langue (malgré les 15 langues traduites à plus de 50%).

À ce que je comprends, vous utilisez donc des données provenant de Wikidata. Pouvez-vous expliquer à celles et ceux qui parmi nous ne sont pas très au point sur la notion de web de données quels sont les enjeux et les applications possibles de Wikidata ?
Tout comme le web a introduit l’hypertexte pour pouvoir lier les écrits humains entre eux (par exemple un article de blog renvoie vers un autre article de blog quelque part sur le web), le web des données ouvertes permet aux bases de données de faire des liens entre elles. Cela permet par exemple à des bibliothèques nationales de publier des données bibliographiques que l’on peut recouper : « Je connais cette auteure avec tel identifiant unique dans ma base. Je sais aussi qu’une autre base de données lui a donné cet autre identifiant unique ; vous pouvez donc aller voir là-bas s’ils en savent plus ». Beaucoup d’institutions s’occupent de créer ces liens, mais la particularité de Wikidata, c’est que, tout comme Wikipédia, tout le monde peut participer, discuter, commenter ce travail de production de données et de mise en relation.

L’éditeur de données, très facile d’utilisation, permet le partage vers wikidata.

Est-ce qu’il serait envisageable d’établir un lien vers la base de données de https://www.recyclivre.com/ quand l’ouvrage recherché ne figure dans aucun « inventaire » de participant⋅es ?
Ça pose au moins deux problèmes :

  • Ce service et d’autres qui peuvent être sympathiques, telles que les plateformes mutualisées de librairies indépendantes (leslibraires.fr, placedeslibraires.fr, librairiesindependantes.com, etc.), ne semblent pas intéressés par l’inter-connexion avec le reste du web, construisant leurs URL avec des identifiants à eux (seul le site librairiesindependantes.com semble permettre de construire une URL avec un ISBN, ex : https://www.librairiesindependantes.com/product/9782253260592/) et il n’existe aucune API publique pour interroger leurs bases de données : il est donc impossible, par exemple, d’afficher l’état des stocks de ces différents services.
  • D’autre part, recyclivre est une entreprise à but lucratif (SAS), sans qu’on leur connaisse un intérêt pour les communs (code et base de données propriétaires). Alors certes ça cartonne, c’est efficace, tout ça, mais ce n’est pas notre priorité : on aimerait être mieux connecté avec celleux qui, dans le monde du livre, veulent participer aux communs : les bibliothèques nationales, les projets libres comme OpenLibrary, lib.reviews, Bookwyrm, Readlebee, etc.

Cependant la question de la connexion avec des organisations à but lucratif pose un vrai problème : l’objectif de l’association Inventaire — cartographier les ressources où qu’elles soient — implique à un moment de faire des liens vers des organisations à but lucratif. En suivant l’esprit libriste, il n’y a aucune raison de refuser a priori l’intégration de ces liens, les développeuses de logiciels libres n’étant pas censé contraindre les comportements des utilisatrices ; mais ça pique un peu de travailler gratuitement, sans contrepartie pour les communs.

En quoi inventaire.io participe à un mouvement plus large qui est celui des communs de la connaissance ?
Inventaire, dans son rôle d’annuaire des ressources disponibles, essaye de valoriser les communs de la connaissance, en mettant des liens vers les articles Wikipédia, vers les œuvres dans le domaine public disponibles en format numérique sur des sites comme Wikisource, Gutenberg ou Internet Archive. En réutilisant les données de Wikidata, Inventaire contribue également à valoriser ce commun de la connaissance et à donner à chacun une bonne raison de l’enrichir.

Une interface simple pour ajouter un livre à son inventaire

Inventaire est aussi un commun en soi : le code est sous licence AGPL, les données bibliographiques sous licence CC0. L’organisation légale en association vise à ouvrir la gouvernance de ce commun à ses contributeur⋅ices. Le statut associatif garantit par ailleurs qu’il ne sera pas possible de transférer les droits sur ce commun à autre chose qu’une association poursuivant les mêmes objectifs.

Si je suis une organisation ou un particulier qui héberge des services en ligne, est-ce que je peux installer ma propre instance d’inventaire.io ?
C’est possible, mais déconseillé en l’état. Notamment car les bases de données bibliographiques de ces différentes instances ne seraient pas synchronisées, ce qui multiplie par autant le travail nécessaire à l’amélioration des données. Comme il n’y a pas encore de mécanisme de fédération des inventaires, les comptes de votre instance seraient donc isolés. Sur ces différents sujets, voir cette discussion : https://github.com/inventaire/inventaire/issues/187 (en anglais).

Cela dit, si vous ne souhaitez pas vous connecter à inventaire.io, pour quelque raison que ce soit, et malgré les mises en garde ci-dessus, vous pouvez vous rendre sur https://github.com/inventaire/inventaire-deploy/ pour déployer votre propre instance « infédérable ». On va travailler sur le sujet dans les mois à venir pour tendre vers plus de décentralisation.

A l’heure où il est de plus en plus urgent de décentraliser le web, envisagez-vous qu’à terme, il sera possible d’installer plusieurs instances d’inventaire.io et de les connecter les unes aux autres ?
Pour la partie réseau social d’inventaires, une décentralisation devrait être possible, même si cela pose des questions auquel le protocole ActivityPub ne semble pas proposer de solution. Ensuite, pour la partie base de données contributives, c’est un peu comme si on devait maintenir plusieurs instances d’OpenStreetMap en parallèle. C’est difficile et il semble préférable de garder cette partie centralisée, mais puisqu’il existe plein de services bibliographiques différents, il va bien falloir s’interconnecter un jour.

Vous savez sûrement que les Chevaliers Blancs du Web Libre sont à cran et vont vous le claironner : vous restez vraiment sur GitHub pour votre dépôt de code https://github.com/inventaire ou bien… ?
La pureté militante n’a jamais été notre modèle. Ce compte date de 2014, à l’époque Github avait peu d’alternatives… Cela étant, il est certain que nous ne resterons pas éternellement chez Microsoft, ni chez Transifex ou Trello, mais les solutions auto-hébergées c’est du boulot, et celles hébergées par d’autres peuvent se révéler instables.

Si on veut contribuer à Inventaire.io, on fait ça où ? Quels sont les différentes manière d’y contribuer ?
Il y a plein de manières de venir contribuer, et pas que sur du code, loin de là : on peut améliorer la donnée sur les livres, la traduction, la documentation et plus généralement venir boire des coups et discuter avec nous de la suite ! Rendez-vous sur https://wiki.inventaire.io/wiki/How_to_contribute/fr.

Est-ce que vous avez déjà eu vent d’outils tiers qui utilisent l’API ? Si oui, vous pouvez donner des noms ? À quoi servent-ils ?
Readlebee et Bookwyrm sont des projets libres d’alternatives à GoodReads. Le premier tape régulièrement dans les données bibliographiques d’Inventaire. Le second vient de mettre en place un connecteur pour chercher de la donnée chez nous. A noter : cela apporte une complémentarité puisque ces deux services sont orientés vers les critiques de livres, ce qui reste très limité sur Inventaire.

Et comme toujours, sur le Framablog, on vous laisse le mot de la fin !
Inventaire est une app faite pour utiliser moins d’applications, pour passer du temps à lire des livres, papier ou non, et partager les dernières trouvailles. Pas de capture d’attention ici, si vous venez deux fois par an pour chiner des bouquins, ça nous va très bien ! Notre contributopie c’est un monde où l’information sur la disponibilité des objets qui nous entoure nous affranchit d’une logique de marché généralisée. Un monde où tout le monde peut contribuer à casser les monopoles de l’information sur les ressources que sont les géants du web et de la distribution. Pouvoir voir ce qui est disponible dans un endroit donné, sans pour autant dépendre ni d’un système cybernétique central, ni d’un marché obscur où les entreprises qui payent sont dorlotées par un algorithme de recommandations.

Merci beaucoup Maxlath et Jums pour ces explications et on souhaite longue vie à Inventaire. Et si vous aussi vous souhaitez mettre en commun votre bibliothèque, n’hésitez pas !




J’enseigne, je code et je partage : une série de portraits-entretiens à la rencontre des enseignant⋅es développeur·euses

J’enseigne, je code et je partage est une série de portraits-entretiens à la rencontre des enseignant⋅es développeur·euses réalisée par Hervé Baronnet (enseignant) et Jean-Marc Adolphe (journaliste culture et humanités) pour l’association Faire École Ensemble. Déjà 3 de ces portraits-entretiens ont été publiés et on s’est dit que ça pourrait être chouette d’en savoir un peu plus sur cette initiative. Alors, on a demandé aux interviewers s’ils acceptaient d’être interviewés à leur tour.

Bonjour Hervé et Jean-Marc ! Pouvez-vous vous présenter ?

Bonjour,
Hervé Baronnet, je suis enseignant en maternelle depuis 25 ans, toujours en zone d’éducation prioritaire. Utilisateurs des TICE, notamment de logiciels éducatifs libres mais pas exclusivement. J’ai contribué au projet AbulÉdu en tant que bêta-testeur et auteur de documentations pédagogiques. Je suis actuellement membre du conseil collégial de FÉE.

Bonjour,
Jean-Marc Adolphe, journaliste et conseiller artistique, ex-militant FCPE. Je m’intéresse depuis longtemps à l’éducation aux médias, à mes yeux insuffisamment enseignée à l’école. Et en tant que citoyen, l’école m’engage. La question des « biens communs numériques » me semble essentielle dans tout ce qui ressort du service public, particulièrement au sein de l’Éducation nationale.

Vous êtes tous les deux adhérents de l’association Faire École Ensemble. C’est quoi cette asso ?

L’association Faire École Ensemble est une association collégiale qui facilite les collaborations entre les citoyens et la communauté éducative tout au long de la pandémie. Fée engage des projets collaboratifs en s’appuyant sur 3 spécificités : la convivialité, la documentation et le recours par défaut aux licences ouvertes.

Concrètement, à l’annonce de la fermeture des écoles et de la mise en place généralisée de l’enseignement à distance en mars 2020, nous avons mobilisé 1000 citoyennes et citoyens pour aider les professeurs peu à l’aise avec le numérique. S’en sont suivies d’autres actions autour de la réouverture progressive des écoles avec un protocole sanitaire drastique, les possibilités de faire école à l’extérieur, la préparation d’une rentrée apaisée en passant une nuit à l’école et une action réflexive sur la place du numérique dans l’enseignement (recherche-action ; états généraux du numérique libre et des communs pédagogiques).

Ce que nous faisons avec Faire École Ensemble relève d’une configuration tiers-lieux telle que définie par Antoine Burret (« le tiers-lieu peut-être défini conceptuellement comme : une configuration sociale où la rencontre entre des entités individuées engage intentionnellement à la conception de représentations communes »). Nos projets réunissent des communautés de personnes diverses (parents, profs, designers, chercheurs, élèves, architectes, juristes, militants associatifs, artistes…) autour d’une intention commune (réaménager sa classe, organiser une nuit à l’école, penser la pédagogique en période de crise…). Nous documentons les conversations (formelles et informelles) pour faire émerger un patrimoine informationnel commun, nous prenons soin des liens entre les personnes, sommes garants de la convivialité et accompagnons celles et ceux qui le souhaitent dans le passage à l’action (nous ne faisons pas à leur place).

J’ai cru comprendre que FÉE souhaitait développer une communauté d’enseignant⋅es développeur·euses en informatique. Quel est l’objectif ? Ça s’organise où et comment ? Quelles sont les modalités pour y participer ?

La création de la communauté d’enseignant⋅es développeur·euses s’inscrit dans le cadre du programme sur le libre et les communs dans l’éducation. Cette action fait suite aux États Généraux du Numérique Libre et des Communs Pédagogiques et vise à réunir les enseignant⋅es développeur·euses en communauté pour penser/agir en faveur d’un numérique éducatif plus coopératif et plus éthique.

C’est une communauté ouverte pour :

  • Comprendre quelles sont les spécificités des enseignant⋅es développeur·euses et favoriser leur mise en visibilité
  • Promouvoir leurs projets de développement
  • Faciliter les contributions et favoriser l’entraide

La communauté s’organise autour d’une catégorie sur le forum de FÉE où l’inscription est libre, et d’une page sur le wiki de FÉE.

Des webinaires « le logiciel libre par des acteurs de l’éducation pour l’éducation » dans le cadre du cycle sur le libre et les communs sont proposés régulièrement. Les enseignant⋅es développeur·euses sont invité⋅es à y participer.

Il est important de souligner que les « enseignant⋅es développeur·euses » ne sont pas nécessairement des spécialistes en informatique. Ce sont avant tout des enseignant⋅es, soucieu⋅ses de trouver des ressources pédagogiques et « techniques » adaptées à leurs élèves.

Dans ce cadre, vous vous êtes lancés dans une série d’interviews d’enseignant⋅es développeur·euses. Quel est l’objectif de ces interviews ?

Le premier objectif de cette série d’entretiens-portraits est de faire connaître l’existence de ces personnes, de les valoriser elleux ainsi que les projets sur lesquels ielles travaillent. Ensuite, un portrait type présentant leurs spécificités va pouvoir naître en croisant les réponses.

Carte heuristique pour mettre en évidence les spécificités des enseignant⋅es développeur·euses.

Il s’agit de faire savoir à d’autres enseignant⋅es développeur·euses qu’ielles ne sont pas seul⋅es. À plus long terme, il s’agit de faire prendre conscience de la valeur de ces acteur⋅ices et de lister les freins et les besoins pour aboutir à un soutien institutionnel.

Sur quels critères sélectionnez-vous les enseignant⋅es développeur·euses pour votre série de portraits ?

Nous avons sollicité dans un premier temps des enseignant⋅es qui s’étaient inscrit⋅es sur le forum de FÉE. Puis nous avons réalisé des portraits de personnes au profil plus étendu, avec la double casquette enseignant et développeur au sens large. Le fait de développer ou de contribuer à des logiciels libres est privilégié dans le choix des entretiens.

#ModeTroll : il y a à ce jour 3 entretiens sur le blog et uniquement des hommes. C’est volontaire de ne pas valoriser la gent féminine ?

Il y en a 3 et bientôt 6, tous des hommes, en effet ! FÉE n’y est pour rien (le conseil collégial de l’association devrait être bientôt à parité hommes / femmes). Il se trouve que seuls des enseignants-hommes se sont manifestés à ce jour. Mais nous profitons de cet entretien pour lancer un appel à des enseignantes-développeuses afin qu’elles participent à cette série d’entretiens et qu’elles puissent rejoindre la communauté qui est en train de se former.

Quelle est la place du logiciel libre dans les pratiques des enseignant⋅es développeur·euses ?

La place du logiciel libre est centrale, car la priorité a été donnée aux enseignant⋅es développeur·euses libristes, cette action étant dans la continuité des États Généraux du Numérique Libre organisés par FÉE.

Des développeur·euses qui utilisent des outils non libres ou développant des applications gratuites propriétaires pourront aussi être sollicité⋅es pour mieux définir ce qui les empêche de basculer vers le libre.

Et comme toujours, sur le Framablog, on vous laisse le mot de la fin !

À partir de ces entretiens des caractéristiques communes aux enseignant⋅es développeur·euses peuvent être extraites.

Parmi les points positifs :
+ la motivation à aider les élèves
+ l’éthique comme moteur
+ la valeur ajoutée de leur projet en tant qu’outil métier

Parmi les aspects négatifs :
– le temps, la non-reconnaissance du travail
– le code « amateur » peu ou pas documenté
– l’aspect chronophage des questions des utilisateur⋅ices qui augmente avec le succès des logiciels

Notre contributopie serait de limiter ces freins par l’impulsion de solutions :

  • Que les institutions qui emploient ces enseignant⋅es développeur·euses reconnaissent l’intérêt de leur travail et leur permettent d’y consacrer du temps. Les enseignant⋅es ne veulent pas devenir développeur·euses à temps plein, le côté passion est leur moteur et les expériences de « professionnalisation » ont été des échecs.
  • Que la communauté du libre les aide pour améliorer le code sous forme, par exemple, de formations menées par des développeur·euses professionnel⋅les.
  • La mise en place d’une communauté d’usage permettant de répondre aux questions des utilisateur⋅ices et de créer de la documentation pédagogique.

Merci beaucoup pour vos précisions Hervé et Jean-Marc. Et on espère que de nombreu⋅ses enseignant⋅es et libristes rejoindront votre communauté.




Marie-Cécile Godwin :
« les usages prévalent sur tout »

Un internaute nous dit :
J’ai été particulièrement intéressé par les propos de Marie Cécile Godwin sur ses interactions avec les utilisateurs de PeerTube et les vidéastes qui utilisent déjà YouTube, ainsi que sur ses retours sur la communauté du libre… Dis, Framablog, tu nous ferais un entretien avec elle pour en parler plus longuement ?

CHICHE !


Salut Marie-Cécile.

On t’a vue dans le clip sur les coulisses de PeerTube, mais peux-tu te présenter tout de même ?

Mais avec grand plaisir ! Marie-Cécile, 39 ans, amatrice de Rice Krispies et de tricot, designer UX quand il faut payer les factures. Diplômée de communication visuelle en 2004 (oui, ça date !), j’ai peu à peu navigué vers la stratégie de conception et l’étude des usages, à l’époque où on ne parlait pas encore d’UX. Aujourd’hui, je passe la plupart de mon temps à coller des post-it partout, écouter des personnes me parler de leurs usages numériques et faire de mon mieux pour déconstruire les clichés sur le numérique des étudiant·es durant les cours que je donne. D’ailleurs, je leur propose régulièrement de prendre les logiciels libres comme sujets d’étude !

Détournement de la photo officielle de Marie-Cécile

 

Qu’est-ce que tu savais du logiciel libre et de la culture geek avant de nous rencontrer ?

Pas grand chose. J’utilisais certains d’entre eux, mais je n’avais pas encore fourré le nez dans la culture libre et ses valeurs. En bonne designer graphique, je capitulais devant le poids des grandes firmes et de leurs logiciels propriétaires pour respecter la chaîne de production tout autour de moi. Puis, avec l’arrivée des plateformes sociales et la découverte des enjeux liés, entre autres, à l’Anthropocène, j’ai enfin pu déconstruire mes préconceptions au sujet des libertés individuelles, et de ce que nous pouvons faire pour nous prémunir de leur destruction. Pour ce qui est des logiciels propriétaires, j’ai récemment décidé de passer à la suite Affinity Serif  qui n’est pas libre, mais qui propose leurs logiciels à prix fixe, une rareté dans l’industrie où il ne reste que des programmes « cloud » à abonnement.

Est-ce que tu avais une vision réaliste des vidéastes qui publient sur le web, ou est-ce que tu as eu des surprises en bossant sur PeerTube ?

Très peu consommatrice de contenus vidéos, je n’ai pas bien suivi le phénomène de l’explosion des vidéastes. Certainement dû à mon grand âge, en tout cas sur l’échelle du Web 😀

Du coup, pas tellement de surprises en découvrant l’univers gravitant autour de Peertube, mais de belles rencontres, notamment au fil des entretiens menés pour découvrir les usages de chacune et chacun.

 

Tu dis que tu es designer, en quoi ça consiste ?

Ah ça, c’est LA question piège à chaque fois qu’on me demande ce que je fais. Il y a des clichés très persistants sur le design, qui est vu comme la discipline de l’apparence et du beau. Si je devais revenir aux fondements de ma pratique, je suis la personne chargée de (re)cadrer le besoin initial, d’analyser le contexte et le terrain, puis de prendre toute la complexité recueillie, l’ordonner et lui donner LA forme qui conviendra.

Que ce soit du travail de graphisme (UI) pour adapter une identité graphique à un wireframe, ou du travail de conception dudit wireframe, ou encore la création d’un « service blueprint » (un plan technique d’un service ou d’une organisation destiné à faciliter l’identification des problèmes ou des frictions) d’après des données de terrain ou d’entretiens, tout part des mêmes méthodes : cadrer, analyser, ordonner puis choisir la forme de restitution qui conviendra.

Ce processus est à la base de tout, c’est ce qui s’appelle la « pensée design », et qui fait les beaux jours des cabinets de consulting sous le très à la mode « design thinking« . Mais qu’on appelle ça « design thinking« , « UX design » ou un quelconque néologisme bullshit, cela m’importe peu. Je me dis souvent « UX designer » ou « UX researcher » parce que ce sont des termes qui sont maintenant entrés dans le langage commun et qui ont un vague sens pour les personnes à qui je le dis. Mais au final, je suis bien « conceptrice » un peu comme je pourrais être « ingénieure ». C’est une façon de penser, réfléchir et faire les choses, puis de leur donner la juste apparence en fonction de tous ces paramètres. J’assiste la conception de systèmes et de services.

Est-ce que tu as changé de façon de « faire du design » au cours de ta vie professionnelle ?

Ouh là là oui ! À l’époque où j’ai fait mes études (le tout début du siècle !), le monde était radicalement différent et les inégalités et oppressions systémiques amplifiées par le numérique étaient beaucoup moins saillantes qu’aujourd’hui. Mon propre privilège m’était également invisible.

je me suis frottée au capitalisme de surveillance

Je me contentais de faire ce que l’on m’avait appris : obéir aux exigences d’un⋅e client·e et faire de mon mieux pour contribuer à atteindre ses objectifs, la plupart du temps ceux-ci étant résumables à « vendre plus de trucs ». Depuis, je me suis frottée au capitalisme de surveillance, à la surconsommation, au dérèglement climatique, aux oppressions systémiques et j’ai découvert que le design et les designers étaient loin d’être innocentes dans tout ça. Il m’a fallu du temps, mais aujourd’hui j’essaie de faire de mon mieux pour parler de ces aspects et les appliquer au quotidien dans ma manière de travailler et les personnes avec qui je travaille.

Pourquoi as-tu accepté de contribuer à Framasoft (On n’en revient toujours pas qu’une pointure comme toi accepte de nous aider) ?

Une « pointure » ? mais non enfin 😀

Hé bien justement, pour toutes les raisons susmentionnées. Il n’est pas possible de lutter individuellement contre des choses aussi complexes et insidieuses que le dérèglement climatique et le capitalisme de surveillance. Par contre, on peut faire plein de petits choix conscients qui feront avancer petit à petit les choses. Collaborer avec Framasoft, que ce soit via des prestations rémunérées ou du bénévolat, me permet d’avoir la sensation de faire une petite part du travail à accomplir pour que le monde soit un poil moins pourri chaque jour.

Aussi, parce que Framasoft est blindée de personnes formidables que j’aime beaucoup côtoyer (toujours à 2 mètres de distance et avec un masque :P) et que j’apprends énormément à leurs côtés.

Quand tu as commencé à regarder ce qui n’allait pas en termes d’UX / UI chez Framasoft, qu’est-ce qui t’a choquée le plus ?

Le mot « choquée » est un peu fort. 😛

Ce qui me donne le plus de fil à retordre, c’est tout le travail de « change management« , pour employer un terme très startup nation. Le modèle mental des designers est radicalement différent, dans la manière d’aborder la conception d’un outil, par exemple d’un logiciel. Nous n’allons pas nous appuyer sur nos propres perceptions pour prendre des décisions, mais nous allons d’abord étudier le contexte, aller voir des personnes qui ont le même besoin, et essayer de trouver un modèle de conception qui serve le plus de monde possible.

Ce travail, s’il n’est pas fait en amont, pose deux problèmes : l’outil une fois conçu ne va pas « parler » aux personnes qu’il est censé aider. Par exemple, le vocabulaire verbal ou visuel de l’interface induira les personnes qui l’utilisent en erreur, soit parce qu’il est trop technique ou qu’il n’emploie pas les bonnes métaphores visuelles. Le deuxième problème, plus structurel, se traduit dans la manière dont le projet est mené et conçu. Si vous avez passé votre vie à concevoir des programmes, qu’ils vous conviennent bien, et qu’en plus personne n’a jamais vraiment râlé, vous n’allez pas avoir besoin de vous remettre en question. Comme je le raconte souvent quand je parle de conception / design dans le libre, en tant qu’UX designer j’arrive avec un constat inconfortable : « ton logiciel ne prend pas le problème dans le bon sens… ». Si on s’arrête là, c’est sûr que ça donne l’impression qu’on va tout péter à coups de masse et que tout le boulot fait jusqu’à présent est à jeter aux oubliettes. La suite du constat est plus cool : « …mais c’est pas grave, on va trouver ensemble des manières de le faire évoluer pour qu’il parle à davantage de gens ».

Comment s’est déroulé ton travail sur PeerTube ?

À la différence de Mobilizon, où le projet commençait à peine et où la team Frama m’a intégrée tout de suite, PeerTube a déjà tout un existant avec lequel j’ai dû me familiariser : l’histoire du projet, de son concepteur, les évolutions, les contributions, les dynamiques autour du projet. J’étais dans mes petits souliers au début ! Ce n’est pas facile de débarquer comme une fleur avec un œil de designer, souvent notre travail est perçu comme l’arrivée d’un chien dans un jeu de quilles, un peu à la « c’est moche, on refait tout ». Il est important de prendre en compte l’histoire du projet et tout le bagage émotionnel qui va avec. On a commencé doucement avec une première phase où j’ai fait l’éponge en posant des questions à l’équipe et à Chocobozzz, puis où j’ai mené des entretiens pour nous faire une meilleure idée de ce que les utilisatrices et utilisateurs de PeerTube en faisaient et ce dont elles et ils avaient besoin. J’ai réalisé en tout une quinzaine d’entretiens, desquels sont sortis non seulement plein d’idées d’améliorations à très court terme, mais aussi de quoi nourrir des orientations stratégiques sur le temps long.

Ce qui m’intéresse beaucoup dans ce projet, c’est d’accompagner Chocobozzz dans les futures évolutions du logiciel en lui apportant la facette « UX ». Outre des petites choses simples comme l’aider à justifier des décisions ergonomiques ou graphiques grâce aux heuristiques de design graphique ou d’utilisabilité, on essaie de bien cadrer les problèmes identifiés, de se faire une bonne idée des usages qui vont autour et de prendre les décisions qui y correspondent.

La grande satisfaction jusqu’à présent, c’est de sentir que je suis utile et que mon travail ne génère pas de défiance dans l’équipe. Chocobozzz m’a dit que ça lui faisait du bien de bosser avec une designer, lui qui a été bien seul sur l’immense majorité de son projet et qui a dû faire des choix ergonomiques sans réellement savoir si c’était la bonne voie ou pas.

 

les libristes, c’est comme un bol de M&M’s

 

Qu’est-ce que tu trouves de génial et qu’est-ce que tu trouves de détestable dans la communauté du Libre ?

Ce qui est absolument génial, ce sont ces valeurs partagées et cette ouverture vers des alternatives. La radicalité politique de la communauté est très appréciable. Pour s’intéresser au libre, il faut avoir fait un chemin individuel qui implique forcément de la réflexion, une prise de recul sur l’existant, et l’audace de s’orienter vers quelque chose de différent de la norme.

Pour ce qui est « détestable », je ne sais pas si le mot est juste, mais j’ai eu à me frotter à un cactus bien piquant, celui qui découle du modèle mental dominant dans le libre : celui du développeur / ingénieur (homme cis hétérosexuel, éduqué, très souvent valide et entouré de gens qui lui ressemblent bien trop (ce ne sont que des faits démographiques, pas un jugement)) dans son armure de certitudes. Concrètement, je me suis fait empailler un nombre incalculable de fois, notamment sur Mastodon que j’ai laissé tomber pour cette raison, parce que j’avais eu l’audace d’utiliser une solution non-libre tout en osant travailler avec Frama. Il existe deux problèmes à mon sens : le premier relève de l’allégeance au libre qui est souvent interprétée en décalage avec la réalité des choses (l’existence d’intercompatibilité entre des solutions ou pas, le monde du travail, les habitudes, les possibilités financières, physiques, cognitives de chacun·e). Résultat, je suis une « vendue » si un jour j’ai osé publier un lien vers un Google Doc. Sauf que la petite asso sans moyen à qui je file un coup de main n’a pas vraiment eu d’autre choix que de se rabattre sur cette solution, pour des raisons qui sont les siennes et que je ne dois pas me permettre de critiquer (les usages prévalent sur tout, c’est la réalité, même si on aimerait parfois que ce soit différent).

Le deuxième problème est fait d’un mélange de patriarcat bien ancré dans l’informatique mixé au manque quasi-total d’occasions de se remettre en question dont souffrent nombre de personnages dans le libre. Je ne suis pas en train de critiquer des individus, ce serait trop simple et cela effacerait l’aspect systémique du problème. En pratique, cela se traduit en discussions unilatérales où mon interlocuteur est en incapacité d’imaginer que je puisse avoir une autre perception et une autre expérience de la vie que lui, encore moins de reconnaître ses torts. Une fois entrevue la possibilité que je puisse lui mettre le nez dans son étron, il va redoubler d’effort car mieux vaut se défendre que d’avouer ses erreurs. Il y a aussi cette insupportable certitude qu’on est dans la vérité et que toute personne qui fait autrement a foncièrement tort. Une des conséquences c’est l’infini tsunami de conseils non sollicités que moi et mes consœurs nous prenons dans la courge quand on ose émettre la moindre critique de quoi que ce soit sur Internet. Je n’ai pas l’énergie de gérer les egos de ceux qui viennent m’apprendre la vie, alors qu’en faisant l’effort de lire ma bio ou de consacrer quelques secondes à se renseigner sur ce que je publie, ils se seraient vite rendu compte que leur intervention était au mieux inutile, au pire franchement toxique.

Du coup, les libristes, c’est comme un bol de M&M’s. On te dit qu’au milieu du bol, y’en a 2 ou 3 qui sont toxiques du genre mortel, mais qu’on ne sait pas lesquels. Je souhaite bon courage à la personne qui osera en manger. Cela peut expliquer que je perde patience et qu’il m’arrive de bloquer allègrement, ou d’envoyer de bons vieux mèmes féministes pour clore une discussion non sollicitée.

 

Extrait d’une vidéo. On est encore tombé sur une hyperactive.

 

Es-tu une louve solitaire du design et de l’expérience utilisateur dans le monde du libre, ou bien y a-t-il une communauté de UI/UX designers qui ont une affinité avec le libre ?

De plus en plus de consœurs et confrères s’intéressent au libre. Maiwann a commencé bien avant moi ! Je suis loin d’avoir le monopole. Il y a encore un fossé qui nous empêche, nous designers, de vraiment contribuer au libre. On ne s’y sent pas forcément à notre place ou bien accueilli·es. Il faut déjà passer la barrière des outils et méthodes qu’utilisent les libristes pour travailler (GitHub, forums, etc.) et ensuite faire comprendre que nous ne sommes pas juste des peinteresses en bâtiment qui vont pouvoir donner un petit coup de propre à notre vieux Bootstrap UI.

J’essaie de motiver des personnes autour de moi dans l’industrie du design et de l’UX pour contribuer, j’espère que ma présence dans ce milieu va rassurer les gens du libre (non, les designers ne viennent pas tout casser !) et les designers (oui, les gens du libre peuvent écouter !).

Question annexe : je participe à un super projet libre (site Web ou applications pour le Web/ordiphone/ordinateur), mais je suis nul en UX/UI. Vers qui me tourner ? De manière générale, comment aborder cette problématique quand on n’est pas soi-même designer ?

La toute première étape pour aborder la problématique de la conception et de l’expérience d’usage, c’est déjà de se rendre compte qu’on a besoin d’aide 🙂 Ensuite, je dirais qu’intégrer un·e designer le plus tôt possible dans le projet est très important. Comme tu l’as sûrement compris, plus on peut absorber de contraintes, mieux on peut aider.

Il existe plein de ressources pour s’approprier les règles de base afin de créer une interface accessible, lisible, utilisable et logique. Ce n’est pas si dur que ça, promis ! Le tout c’est d’arriver avant la fin du projet où il ne reste plus qu’à « mettre un coup de peinture au Bootstrap« .

En travaillant avec des vidéastes utilisant des plateformes privatrices, as-tu vu des problèmes impossibles à résoudre pour eux (pour le moment) avec les logiciels libres et/ou PeerTube ? (Je pose cette question parce que j’ai récemment lu un article de Robin Wong expliquant qu’il devait publier deux vidéos sur YouTube chaque semaine sous peine de disparaître des écrans, la faute à un algorithme secret et féroce… et j’ai trouvé ça particulièrement triste et aimerais bien qu’il existe une solution libre pour éviter cela)

Il existe nombre de problématiques d’usage pour lesquelles le logiciel libre ne pourra pas grand chose. Avec Mobilizon, par exemple, on s’est frotté·es au phénomène du « no-show« , ou de ces personnes qui prennent une place pour un événement, pour finalement ne pas y venir. C’est un grand classique pour toute personne qui organise des événements, et ça peut être très difficile de gérer la logistique derrière. Cela implique des questionnements sur le nombre de bouteilles de jus de fruit à prévoir jusqu’à la taille même de la salle à louer. C’est un souci humain, et on aura beau se creuser la tête et ajouter tout un tas de petite fonctionnalités pour inciter au maximum ces personnes à céder leur place réservée si elles ne viennent pas, l’informatique a ses limites.

Pour la rémunération, ce ne sont pas les logiciels libres qui vont faire office de solution

 

Pour ce qui est de la vidéo, il est clair que deux forces jouent en la défaveur des vidéastes : le modèle financier imposé par les plateformes, et les algorithmes qui changent en permanence la donne sur ce qui sera promu et pourquoi. Pour la rémunération, ce ne sont pas les logiciels libres qui vont faire office de solution. C’est à nous de nous poser la question, de manière politique, en décortiquant qui rémunère qui, en fonction de quoi, et en décidant collectivement de nouvelles manières de faire en s’affranchissant des plateformes. Pour le coup des algorithmes de sélection de contenu, ils existent pour un seul objectif : forcer les créatrices et créateurs de contenu à payer pour être vues. Le dommage collatéral terrible, c’est qu’ils les forcent aussi à standardiser ce qu’elles produisent, depuis la tronche de l’image de prévisualisation jusqu’au rythme de publication. Ce diktat est très inconfortable pour elles, et je les comprends. Mais de là à abandonner une audience en apparence captive et une plateforme qui te rémunère sans que tes fans n’aient à débourser un seul euro (ou en tout cas c’est ce dont on a l’impression), il y a un fossé à survoler avant d’y arriver.

La transition vers de nouveaux modèles de publication et de rémunération est loin d’être facile, ni rapide. C’est à nous de promouvoir des modèles alternatifs et toute la pédagogie qui va autour, en ne perdant pas de vue que les logiciels en eux-mêmes ne sont pas une fin.

Quel(s) conseil(s) donnerais-tu aux créateurs de logiciels libres pour obtenir de bons retours qui leur permettent d’améliorer leurs logiciels et de les rendre plus accessibles (pas seulement en termes d’accessibilité comme on l’entend sur le Web, mais tout simplement pour qu’ils soit utiles au plus grand nombre).

Il y a deux niveaux sur lesquels agir :

  • la stratégie de conception du logiciel,
  • son apparence, son utilisabilité et son accessibilité.

Pour le deuxième niveau (le plus simple pour commencer), il existe de nombreuses ressources pour s’auto-former en bases du graphisme : la théorie des couleurs, les contrastes, les principes du design visuel, les heuristiques d’utilisabilité d’interface (en anglais), parmi tant d’autres. Rien qu’avec ces basiques, on peut éviter énormément d’erreurs d’UI (apparence de l’interface) ou d’UX (comment l’interface fonctionne et s’enchaîne avec le reste d’un flow).

Il est également possible de faire un peu de « guérilla UX » à moindre frais. La méthode la plus simple consiste à interroger des utilisatrices ou utilisateurs de votre logiciel, voire carrément d’organiser une petite session de partage d’écran, de leur demander d’accomplir telle ou telle action, et de les observer en silence : frissons garantis ! Vous en apprendrez énormément sur la manière dont les personnes utilisent votre logiciel, sur les objectifs qu’elles cherchent à remplir avec, et sur les modèles mentaux qu’elles utilisent et que vous n’aviez pas imaginés.

En ce qui concerne la stratégie de conception, c’est un peu plus compliqué. La remettre en question demande une certaine maturité sur le projet, et l’acceptation qu’il est possible qu’on se soit trompé à la base… Jamais agréable. Ensuite, c’est un long travail à faire que de revenir aux origines de l’usage de votre logiciel. Étudier le besoin original, explorer ce besoin pour voir quel périmètre d’usage choisir, pour quels objectifs, pour promouvoir quelles valeurs, puis comment structurer la conception pour appliquer ces valeurs à l’ensemble des décisions prises. C’est ce qu’on appelle l’assistance à maîtrise d’usage, et c’est ce à quoi je passe la plupart de mon temps. Là, c’est un peu plus difficile de s’auto-former. J’essaie, dans la mesure du temps que je peux dégager, de donner des coups de main à droite à gauche pour débloquer ce genre de situations. C’est ce qu’on avait fait avec Marien sur Lessy, par exemple.

Des recommandations de lectures ou de visionnages pour en découvrir plus sur ton métier et sur les bonnes pratiques de UI/UX en général ?

Le site de NNGroup est une mine d’or pour les anglophones. Je m’y réfère beaucoup. Difficile également de passer à côté de l’ouvrage très riche de Carine Lallemand, « Méthodes de design UX ». Le livre d’Andrew Travers, « Interviewing for Research », propose 60 pages hyper pragmatiques sur comment conduire des entretiens de recherche UX (en anglais) .Stef Walter publie une veille très riche sur Twitter et sur son blog. Akiani publie une veille axée « UX research » très intéressante. Enfin, je vous conseille la veille accessibilité d’Access42, car cet aspect est bien trop souvent oublié de pas mal de projets, alors qu’il devrait en être les fondations.

Voici aussi une petite sélection de conférences à regarder :