Castopod : la voix du fédivers

Plus de soixante-quinze millions de podcasts sont téléchargés chaque mois dans notre pays par plus de douze millions de personnes.
Qui les fait ? Qui les écoute ? Nous avons interrogé Benjamin Bellamy, co-créateur de Castopod —en audio, s’il vous plaît.

Origami oiseau réalisé avec une feuille portant des logos de Castopod; posé sur un casque audio
Illustration CC-BY-SA Benjamin Bellamy

La transcription de l’entretien

 

Bonjour ! Selon une enquête Médiamétrie sortie en décembre 2022 « Les chiffres clés de la consommation de podcasts en France », plus de soixante-quinze millions de podcasts sont téléchargés chaque mois dans notre pays par plus de douze millions de personnes. C’est donc un phénomène qui a conquis toute la Gaule. Toute, pas tout à fait puisqu’il reste au moins un indi… irréductible, voilà, je commence à bafouiller, c’est bien, qui est passé à côté c’est-à-dire moi.

Aujourd’hui nous avons eu l’idée d’interviewer Benjamin qui, lui, est très impliqué dans le monde du podcast et pour lui faire honneur nous faisons donc cet entretien en audio, ce qui n’est pas l’habitude dans le Framablog.

Benjamin, est-ce que tu peux te présenter ?

 

Oui, bien sûr, Frédéric. Bonjour. Donc je m’appelle Benjamin Bellamy.

En deux mots je suis né longtemps avant les réseaux sociaux mais après les cartes perforées et tout petit je suis tombé dans la marmite informatique.
J’écoute des podcasts depuis pas mal de temps et il y a deux ans avec trois associés j’ai créé une société qui y est exclusivement consacrée, Ad Aures.

 

Est-ce que tu peux présenter Castopod ? C’est quoi ? Un logiciel, une plate-forme, un oiseau, une fusée ?

 

Castopod qui donc est développée par Ad Aures, c’est un peu tout ça à la fois.
C’est d’abord un logiciel codé en PHP qui permet à toutes et à tous d’héberger plusieurs podcasts. Une fois en place, c’est-à-dire cinq minutes après avoir dézippé le paquet et lancé l’assistant d’installation c’est une plateforme d’hébergement de podcasts multipodcasts multi-utilisatrices multi-utilisateurs et enfin peu de gens le savent mais en imprimant le code source de Castopod sur une feuille A4 on obtient un superbe oiseau.

Origami papillon réalisé avec une feuille portant des logos de Castopod, posé sur des fleurs
Illustration CC-BY-SA Benjamin Bellamy

 

Pour la fusée en revanche j’avoue on est super en retard et rien n’est prêt.

Enfin, plus sérieusement, Castopod permet à tout le monde de mettre des podcasts en ligne afin qu’ils soient disponibles sur n’importe quelle plateforme d’écoute donc ça peut être évidemment Apple Podcast, Google Podcast, Deezer, Spotify, Podcast-Addict, PostFriends, Overcast,… Il y en a plein d’autres, donc vraiment partout. Castopod apporte tout ce dont on a besoin donc de la gestion de fichiers sonores MP3 évidemment à la gestion des métadonnées, des titres, des descriptions, la génération du fameux RSS, l’export de clips vidéo à partager sur les réseaux sociaux, les mesures d’audience etc.

 

Et d’autre part, Castopod est adapté tout autant aux podcastrices et aux podcasteurs en herbe qu’aux professionnels les plus chevronnés puisque avec une seule installation on peut avoir autant de podcasts qu’on veut autant de comptes utilisateurs qu’on veut et enfin Castopod est open source, libre et gratuit, et il promeut et intègre des initiatives ouvertes telles que celles de Podcasting 2.0 qui permet entre autres la gestion de transcription et de sous-titrage de liens de financement de chapitres de géolocalisation de contenu de gestion des intervenants et de commentaires inter-plateforme et encore plein d’autres choses.

 

Qu’est-ce qui t’a poussé à lancer Casopod ?

 

Qu’est-ce qui m’a poussé à lancer Castopod, tu veux dire : qui m’a poussé à lancer Castopod ? D’une certaine manière c’est Framasoft.
En fait en mars 2019 alors que je cherchais une plateforme de podcasts compatible avec le fédivers j’ai contacté Framasoft pour savoir si vous aviez pas ça dans les tuyaux. Naïvement j’étais persuadé que la réponse serait « ben oui, évidemment » et là la douche froide : « non pas du tout ».

Et à ce moment-là Chocobozzz m’avait expliqué qu’avec les développements de Peertube et Mobilizon qui avaient été lancés un petit peu avant en décembre 2018 Framasoft n’avait pas le temps de se consacrer à un autre projet.

Heureuse coïncidence, à ce moment-là Ludovic Dubost le créateur de Xwiki m’a raconté comment il avait obtenu un financement de NLnet pour CryptPad. Donc j’ai déposé un dossier qui a été accepté immédiatement et qui en plus de nous faire très plaisir nous a confortés quant à la pertinence du projet.

 

Les podcasts m’ont l’air d’être gratuits dans la majorité des cas. Quel est le modèle économique ? Comment est-ce qu’ils en vivent, les gens ?

 

Il y a plusieurs modèles économiques du podcast.

Déjà effectivement il est important de noter qu’aujourd’hui quatre-vingt-dix-neuf pour cent des podcasts n’ont pas de modèle au sens capitaliste du terme, ce qui ne veut pas pour autant dire qu’ils sont gratuits.

Les podcastrices et les podcasteurs se rémunèrent de façon indirecte par le plaisir que ça procure, pour la promotion d’un autre produit ou service, pour l’exposition médiatique, etc. et quant au pourcent restant… Il existe plein de manières de gagner de l’argent.

On peut vendre un abonnement, encourager ses auditrices et ses auditeurs à donner des pourboires, on peut gagner des bitcoins par seconde d’écoute, on peut lire de la publicité, on peut produire un podcast de marque, on peut insérer automatiquement des spots publicitaires sonores, on peut afficher de la publicité à l’écran… par exemple chez Ad Aures notre spécialité c’est l’affichage publicitaire de recommandations contextuelles donc sans cookie ni profilage de l’internaute.

 

Et quel est le modèle économique de Castopod, alors ? Si je te dis que la société Ad Aures est l’équivalent de Canonical pour Ubuntu, est-ce que tu le prends mal ?

 

 

En fait c’est plutôt flatteur. On n’a pas du tout la prétention de devenir le Canonical du podcast même si effectivement on peut y voir des similitudes.
Pour répondre à ta question comme je l’ai laissé entendre plus tôt Castopod a bénéficié d’une subvention européenne qui a permis de financer le démarrage du développement. Ad Aures, la société que j’ai créée avec mes associés a également financé une grosse part du développement.

On compte sur les contributions de toutes celles et ceux qui souhaitent qu’on puisse continuer à maintenir et à faire grandir Castopod au travers de la plateforme Open Collective et enfin à on lance à l’heure où on parle tout juste d’une offre d’hébergement payante clés en main qui va donc permettre à toutes et à tous d’utiliser Castopod sans avoir à s’occuper du moindre aspect technique de l’hébergement.

 

On se rapproche plutôt du modèle de Piwigo, alors ?

 

Euh, exactement, ouais.

 

Alors la question qui pique. Moi je te connais, on s’est rencontrés, euh, il n’y a pas si longtemps que ça, au salon Open-Source Experience et je te connais comme un vrai libriste très engagé… et tu proposes de mettre de la pub sur les «postcasses» des gens ! J’arriverai jamais à prononcer «podcast» correctement ! Alors est-ce que la pub c’est compatible avec ton engagement libriste ?

 

Alors je vois pas pourquoi ça ne serait pas parce que en fait publicité et open source, ces deux concepts ont absolument rien à voir, même si je comprends ce que tu veux dire.

Personnellement, moi, je considère que la publicité en soi déjà ce n’est pas sale et c’est pas honteux et… Ce qui lui a donné une mauvaise réputation c’est le profilage à outrance des internautes est ça ouais c’est pas terrible, je suis d’accord mais justement nous ce qu’on propose c’est des publicités qui sont non invasives sans profilage sans cookie, pertinentes parce que en relation directe avec le contenu qui les héberge et ça permet d’offrir une rémunération à celles et à ceux qui produisent les contenus.

 

Chez nous il n’y a pas de pub pour le tout dernier jeu super addictif ou le top dix des choses qu’on ignorait pouvoir faire avec un cure-dent et un balai de chiottes.
Nous on va plutôt mettre en avant un bouquin en lien direct avec les métadonnées et avec le contenu sonore du podcast grâce au concept que notre moteur d’analyse sémantique aura détecté.

Alors d’un point de vue pratique comment est-ce qu’on fait pour avoir des podcasts dans son smartphone sans blinder sa mémoire ? Parce que moi j’oublie pas que je suis toujours à court de mémoire.

 

Eh eh, c’est là que que je vois qu’effectivement tu n’es pas un expert du podcast parce que un podcast en moyenne c’est quarante minutes.

 

Pour avoir une bonne qualité, voire même une très bonne qualité il faut compter 192 kilobits par seconde. Ce qui fait que un bon gros podcast ça fait moins de 100 méga-octets. Si en plus tu considères que aujourd’hui on est connecté la plupart du temps à Internet du coup pour écouter un podcast il n’y a pas nécessairement besoin de le pré-télécharger. On se rend vite compte que l’espace de stockage nécessaire c’est pas vraiment le souci.

OK, alors moi j’ai un autre problème quand est-ce que les gens ont le temps d’écouter des podcasts ? En faisant autre chose en même temps ?

 

Bah ça c’est la magie du podcast. Le podcast il laisse les mains et les pieds et les yeux totalement libres. Si tu fais le bilan d’une journée, en fait, tu te rends compte que les occasions elles sont super nombreuses.

Tu as le petit-déj, dans ta voiture, dans les transports, en faisant du sport, en attendant un rendez-vous, en faisant son ménage. Personnellement je ne fais plus la vaisselle sans mon podcast.

 

OK, mais le temps d’une vaisselle suffit pour écouter un podcast ? C’est quoi la durée idéale d’un podcast ?

 

Alors… J’ai envie dire déjà ça dépend de ta dextérité à faire la vaisselle. Peut-être que la mienne est pas au top et que justement comme j’écoute des podcasts, eh bien, je ne progresse pas beaucoup. La durée idéale d’un podcast, ben, c’est un peu comme la longueur idéale des jambes, c’est quand elles touchent bien le sol. C’est affaire de contexte parce que si euh les statistiques font état donc d’une durée moyenne de quarante minutes il y a tout plein de circonstances pour écouter un podcast. Donc en fait il y a plein de durées idéales.

Le contexte d’écoute c’est un critère déterminant.

Je ne vais pas chercher le même type et la même longueur, la même durée, de podcast pour le café du matin que pour le café du TGV Paris-Biarritz ! À chaque contexte d’écoute il y a une durée idéale.

Alors, qui produit des podcasts ? Est-ce qu’il y a une grosse offre française ? Moi je ne connais que celui de Tristan Nitot mais en effet je ne suis pas spécialiste.

 

Sur les quatre millions de podcasts dans le monde il y en a 72 000 qui sont francophones ce qui veut dire qu’il y en a beaucoup et qui a beaucoup plus d’heures de podcasts francophones publiés chaque jour qu’il y a d’heures dans une journée. Même si tu les écoutes en vitesse deux fois sans dormir tu ne pourras pas tout écouter.

L’une des particularités du marché français c’est l’importance de l’offre radiophonique parce que les Françaises et les Français sont très attachés à leurs radios, bien plus que dans les autres pays du monde, d’ailleurs. Et donc c’est naturellement qu’on retrouve les radios en bonne place dans les études d’écoute de podcasts. En France il y a également beaucoup de studios de podcasts d’une très grande qualité, vraiment beaucoup, et enfin et c’est ce qui est génial avec le podcasting : n’importe qui peut se lancer que ce soit pour une heure une semaine un an ou dix.

Ma fille a lancé le sien à dix ans !

 

Ah oui, les poésies d’Héloïse, tu m’as dit ça tout à l’heure.

 

C’est ça !

 

Est-ce qu’on a besoin de beaucoup de matériel pour faire un podcast ?

On a besoin que d’un bon micro, des idées, évidemment, euh, d’Audacity, Castopod, et ça suffit, hop-là, on se lance ?

 

La première chose dont on a besoin c’est l’envie puis l’idée et euh… et c’est tout !

Aujourd’hui n’importe quel téléphone moderne est capable d’enregistrer une voix bien mieux que les enregistreurs hors de prix qu’on avait dans les années quatre-vingts !

Si tu savais combien de podcasts sont en fait enregistrés au téléphone sous une couette ou dans une taie d’oreiller ! Bien entendu, et ce n’est pas valable que pour le podcast, hein, plus on avance et plus on devient exigeant et un bon microphone et une bonne carte son, ça fera vite la différence. Mais les contraintes techniques ne doivent pas brider la créativité.

En ce qui concerne le montage donc tu as cité Audacity. Je l’utilise de temps à autre mais je suis plutôt «Team Ardour». La grosse différence c’est qu’Audacity est destructif. C’est-à-dire que tu ne peux pas annuler une manipulation que tu as faite il y a deux heures alors qu’avec Ardour qui est non-destructif… deux ans après avoir bossé sur un montage tu peux encore tout corriger et revenir sur n’importe quelle opération.

Et enfin sur l’hébergement bah il y en a pour tous les besoins, tous les goûts, tous les profils, tous les podcasts, mais la seule solution qui à la fois open source certifié podcasting 2.0 et connectée au fédiverse c’est Castopod.

 

 

Qu’est-ce que tu écoutes, toi, comme podcasts ? Est-ce que tu as des conseils pour les personnes qui souhaitent une sélection ?
On mettra les liens dans les commentaires.

 

Ah c’est un peu audacieux de demander à un inconnu un conseil podcast, c’est un peu comme demander un conseil gastronomique à un inconnu dans la rue.

Surtout que personnellement j’ai une sélection qui est assez éclectique et pas très originale.

Dans les podcasts que j’écoute régulièrement… Il y a Podland, Podnews, Podcasting 2.0, The Europeans, Décryptualité, Libre à vous, L’Octet vert que tu as cité et Sans Algo. Et puis j’écoute aussi beaucoup de d’émission de radio du service public podcastées quand elles sont pas sauvagement supprimées des plateformes ouvertes, suivez mon regard…

 

Alors c’est quoi ton regard ? Tu peux les citer ou… ?

 

Non je ne veux me fâcher avec personne.

 

J’ai vu que Castopod était compatibles Activitypub. Alors ça veut dire quoi concrètement pour les gens qui nous écoutent ?

 

Alors
Activitypub c’est un protocole… c’est un protocole standard normalisé par le W3C, donc c’est pas vraiment des rigolos quand il s’agit de définir une norme, qui permet à toutes les plateformes de réseaux sociaux qui l’implémente de connecter leur contenu et leurs utilisatrices et leurs utilisateurs entre eux l’ensemble des plateformes qui utilisent Activitypub est appelé le fédiverse qui est un mot-valise contraction de «univers» et «fédérer». La plus emblématique de ces plateformes c’est Mastodon quel est donc une plateforme de microblogging semblable à Twitter qui connaît un succès considérable depuis 2017 et récemment on en entend beaucoup parler suite au rachat de Twitter et on compte aujourd’hui plusieurs milliers de serveurs Mastodon et plusieurs millions d’utilisatrices et utilisateurs.
Là où franchement ça devient génial et même au-delà de Mastodon c’est que le fédiverse permet de mutualiser et d’interconnecter plein plein plein de serveurs sur des technologies diverses, différentes, pourvu qu’il implémente Activitypub. Par exemple une utilisatrice ou un utilisateur pourra depuis un un compte Mastodon donc un unique compte Mastodon interagir avec d’autres qui sont connectés depuis un ou plusieurs serveurs Pixelfed, du partage de photos façon Instagram depuis des serveurs Peertube partage de vidéos façon Youtube depuis des serveurs Bookwyrm qui est un service de partage de critiques littéraires depuis les serveurs Funkwhale qui permet du partage de musique depuis Mobilizon, nous en parlions tout à l’heure, qui permet de partager de l’organisation d’événements et depuis Castopod qui permet le partage de podcasts.

Origami papillon réalisé avec une feuille portant des logos de Castopod, posé sur des fleurs
Illustration CC-BY-SA Benjamin Bellamy

Donc concrètement imagine c’est comme si depuis ton compte Twitter tu pouvais « liker » une photo Instagram, commenter une vidéo Youtube, partager une musique SoundCloud.

Alors évidemment bah ça c’est pas possible. C’est pas possible chez les GAFAM.

Mais sur le fédivers ça l’est ! C’est possible, et c’est possible aujourd’hui ! Ce qui fait que ben avec Castopod le podcast est le réseau social donc tes auditrices et tes auditeurs peuvent commenter, partager ou aimer un épisode directement sans aucun intermédiaire. Aucun intermédiaire, qu’il soit technique ou juridique, hein sans GAFAM, sans plateforme privative entre les deux tu as la garantie de ne pas te prendre un «strike» parce que tu as fait usage de ton droit de citation tu ne vas pas avoir ton compte bloqué parce que t’as utilisé des mots-clefs qui sont indésirables et pas de censure automatique par un idiot de «bot» qui ne sait dialoguer qu’en éructant des réponses pré-formatées.

Et tout cela en étant accessible à des millions d’utilisatrices et utilisateurs sur des milliers de serveurs du fédivers. Honnêtement, n’ayons pas peur de le dire, l’avenir des réseaux sociaux sera fédivers ou ne sera pas !

 

Ça me rappelle quelqu’un, tiens… Alors tu as mentionné, quand on a parlé de podcast, tout à l’heure, tu vois je n’arrive pas à le prononcer, décidément.

Tu as mentionné Podcast-Index quand on s’est parlé en préparant l’interview et tu as parlé de Podcasting 2.0 tout à l’heure. Qu’est-ce que c’est ?

Quatre bulles disent "podcrasse", "podcasque", "proutcast" et "prodcrasse" avant qu'une bulle énervée dise "Purin de purin !"
Fred répète pour prononcer « podcast » correctement.

 

 

 

Alors…

Hum…

Laisse-moi chausser mes lunettes parce que cette question nécessite qu’on s’arrête une petite heure, une petite heure et demie sur
l’histoire du podcast.

 

Je ne suis pas sûr qu’il nous reste autant (de temps).

 

Alors là je vais… je vais abréger.

Bien avant les iPods, en 1989, l’émission « l’illusion d’une radio indépendante » (“Иллюзия независимого радио”) ouvre la voie aux podcasts qu’on connaît aujourd’hui en proposant en URSS des émissions sonores qui à l’époque étaient diffusées sur des cassettes et des bandes magnétiques et de « URSS » à « RSS » il n’y a qu’un U, celui de « Uuuuuuh ! quel jeu de mot tout pourri !» jeux de mots que je m’abstiendrai donc de faire.

 

Trop tard !…

 

Et donc sans jeu de mots et bien plus tard c’est en octobre 2000 que Tristan Louis, comme son nom peut le laisser penser il est français, il a l’idée d’inclure des fichiers MP3 dans un flux RSS. RSS lui-même créé et promu par des véritables légendes tel que Ramanathan V. Guha, Dave Winer ou Aaron Swartz.
Et donc il crée la technologie qui est celle que tous les podcasts du monde utilisent encore aujourd’hui. Après ça alors qu’on parlait plutôt d’audio blogging à l’époque, Ben Hammersley, journaliste au Guardian, est le premier à lancer le mot podcast en février 2004 qui est un mot-valise entre « iPod » et broadcasting, broadcasting pour « diffusion » en anglais.

Ce qui fera vraiment connaître le podcast au grand public c’est d’abord les contenus par exemple “Daily Source Code” d’Adam Curry lancé à l’été 2004, et ensuite l’intégration des podcasts par Apple dans iTunes 4.9 en juin 2005.

Et puis pas grand-chose pendant toute une décennie ! En fait l’histoire du podcast elle aurait pu s’arrêter là.

Mais en 2014, Sarah Koenig va bousculer littéralement un écosystème un peu moribond en publiant Serial le podcast aux 350 millions de téléchargements et c’est à ce moment-là qu’un véritable engouement populaire pour les podcasts apparaît.

 

C’est impressionnant, comme chiffre !

 

Ah oui, c’est impressionnant, oui… C’est impressionnant surtout que ça n’arrête pas de croître ! C’est un très bon podcast d’ailleurs Serial, j’adore. Il y a trois saisons et les trois sont très très bien. Si on comprend l’anglais c’est vraiment un podcast à écouter, Serial.

Néanmoins malgré ce renouveau force est de constater que,en plus de quinze ans, pas une seule – et alors que les usages du web entre-temps ont été révolutionnées par le haut débit les smartphones les réseaux sociaux le cloud etc. – donc pas une seule innovation technologique n’est venue bousculer le podcast.
Statu quo fonctionnel et technologique.

Apple règne toujours en maître absolu sur son annuaire de podcasts et rien n’a évolué et à l’été 2019 Adam Curry le même que cité tout à l’heure et Dave Jones, insatisfaits de cette situation, décident de lancer en parallèle, non pas un non pas deux, mais bien trois projets afin de secouer un peu tout ça.

Premièrement et pour mettre fin à la dépendance vis-à-vis de l’index d’Apple ils créent un index de podcasts qui s’appelle Podcast-Index, pas super original, mais au moins on comprend ce que c’est. Il faut comprendre que là où l’index d’Apple requiert une validation d’Apple pour ajouter le moindre podcast mais également pour lire le contenu de l’index ce qui fait qu’Apple en fait a le pouvoir de vie ou de mort sur n’importe quelle application d’écoute qui n’utiliserait que son index.
Là où l’index d’Apple est soumis au bon vouloir d’Apple, Podcast-index est libre.

Il est libre en lecture et en écriture mais attention, vraiment libre par exemple la base de données de Podcast-index, elle est librement téléchargeable dans son intégralité en un clic depuis la page d’accueil. Tu n’as même pas besoin de créer un compte, de filer ton adresse mail, ton numéro de portable, ou le nom de jeune fille de ta mère. Et en plus de ça des API sont librement disponibles pour les applications mobiles Podcast-index référence aujourd’hui plus de quatre millions de podcasts. Apple aujourd’hui en a deux millions et demi.

Deuxièmement et pour rattraper le temps perdu, Adam et Dave décident de proposer de nouvelles fonctionnalités en créant des nouvelles méta-données, le « Podcast Namespace », qui ouvre la voie à ce qu’ils appellent « Podcasting 2.0 ».

Parmi les nombreuses fonctionnalités qui comprend comment on peut noter ben donc la gestion de transcription et de sous-titrage les liens de financement le chapitrage la géolocalisation contenus la gestion d’un intervenant. Il y en a plein d’autres ayant des nouvelles tout le temps, l’ensemble de ces spécifications euh et de ses innovations est librement consultable en ligne sur Github (on mettra le lien dans l’article, dans la description) et librement consultable encore une fois en lecture et en écriture.

C’est là en fait le troisième volet la troisième révolution, le mot est à peine exagéré hein qu’Adam et Dave vont apporter aux podcasts ; ils ont créé une communauté libre et ouverte où tout le monde peut apporter son temps son talent ou son trésor et force est de constater que ça fonctionne du tonnerre. En moins de six mois, alors que je rappelle qu’aucune innovation n’avait bousculé le podcast en quinze ans, en moins de six mois il y a plein d’applications d’écoute et d’hébergeurs évidemment dont Castopod qui ont rejoint le mouvement et qui ont intégré tout ou partie de ces nouvelles fonctionnalités. Donc cette communauté elle se rassemble sur Github sur Mastodon sur podcastindex.social dans un podcast éponyme et lors de réunions où on parle plutôt «techos».

Enfin le résultat c’est que la liste des applications et des services qui sont compatibles podcasting 2.0 est disponible sur le site podcasting.com. Clairement c’est sur ce site et sur podcastindex.org qui faut aujourd’hui choisir son application ou son hébergeur.

 

Alors moi je suis allé tourner un peu sur les sites de Castopod, je suis allé voir blog.castopod.org mais alors tout est en anglais là-dedans !

J’ai cherché un un petit bouton pour changer de langue et il n’y en a pas. Je croyais que le projet était français ? Pourquoi ça cause pas la langue de Molière ?

 

Le projet est français mais il est avant tout européen, enfin en tous cas d’un point de vue chronologique et et donc naturellement on a commencé par l’anglais et on n’a pas eu le temps de traduire cette partie-là mais ça va venir vite, c’est promis.

 

Oui parce que la doc en revanche elle a son site en français doc.castopod.org/fr et là j’étais content j’aurais dû commencer par là parce que il y a plein d’explications dans la doc.

 

Oui, alors la doc, on a pris le temps de la traduire en français et en plus la communauté aidant elle est également disponible en plus de l’anglais en brésilien1 et en norvégien et d’autres langues arriveront derrière.

 

Mais alors je suppose que c’est en fonction des contributeurs et des contributrices que le projet évolue ? Vous avez besoin de contributeurs de contributrices ? Comment est-ce qu’on peut faire pour vous aider ?

 

Ouais tout à fait mais Castopod c’est avant tout un projet ouvert hein donc le le code source est ouvert mais pas seulement on a besoin de développeuses et de développeurs mais également de traductrices de traducteurs de testeuses de testeurs de prescriptrices et de prescripteurs qui prêchent la bonne parole (merci Framasoft !) et puis de financement via Open Collective.

 

D’accord ! Alors comme d’habitude on te laisse le mot de la fin dans le Framablog. Est-ce qu’il y a des questions qu’on ne t’a pas posées ? Est-ce qu’il y a des choses que tu as envie d’ajouter ?

 

Écoute, je trouve que tu as mené cette interview d’une main de maître.

Merci de m’avoir reçu ! En fait je voudrais juste dire aux gens : essayez le podcast.

Vous avez un téléphone vous pouvez vous y mettre ; il ne faut pas être timides hein lancez-vous attendez pas des mois avant de créer le premier épisode car une fois qu’on a une idée on enregistre on publie et puis c’est ce que j’aime avec le podcast, on peut changer de modèle on peut changer de format on peut changer ce qu’on veut on peut tester il y a des hébergeurs pour tout le monde. Évidemment moi je vous engage à aller sur castopod.org pour voir ce que c’est pour voir ce qu’on propose.

Ah, si vous avez un peu la fibre technique eh bien n’hésitez pas à le télécharger et à l’installer, sachant que si vous avez pas la fibre technique et bah allez plutôt sur castopod.com où on propose des prestations d’hébergement clé en main. Et puis bon podcasting et bonne écoute !

 

Ah bah je vais m’y mette du coup je vais essayer de trouver quelques podcasts intéressants parce que c’est pas du tout ma culture ! En tout cas voilà grâce à toi je vais écouter des podcasts.

Merci beaucoup d’être venu parler avec nous et puis on espère longue vie à Castopod.

Merci à Framasoft.
À bientôt !

 

Pour aller plus loin

Sources, sites mentionnés

L’illustration « Fred répète » a été réalisée avec Gégé, le générateur de Geektionnerd basé sur des dessins sous licence libre de SImon « Gee » Giraudot

Musique : Creative Commons   by sa 2.5 license – Antiblues – from www.dogmazic.net/Tdbt

Podcasts

English version of this article

Castopod, the voice of the Fediverse (English version)




Alliance du Bâtiment : un format de fichier ouvert pour la construction

L’interopérabilité logicielle, c’est à dire la capacité de deux logiciels à parler « la même langue », a souvent été évoquée dans le Framablog.

La plupart du temps, il s’agissait pour nous de traiter de bureautique (« Pourquoi mon fichier LibreOffice est-il mal ouvert par cette saleté de Word ?! ») ou de web (« Pourquoi ce site est-il moins bien affiché avec Firefox qu’avec Chrome ? »).

Comme la langue française a besoin de règles de grammaire et d’orthographe, de dictionnaires, etc, les formats de fichiers ont besoin de spécifications, de normes, et d’être correctement implémentés.

Or, quand un format n’a pas de spécification publique et librement implémentable, cela nous rend dépendant⋅e de l’éditeur du logiciel. Un peu comme si un petit groupe de personnes pouvait décréter que vous ne pouviez pas utiliser le mot « capitalisme » parce que ça ne l’arrangeait pas, ou imposait l’interdiction du mot « autrice » (parce que « auteure » n’aurait été acceptée qu’après 2006). Ce serait assez fou, non ? Oh, wait…

Et bien certains formats de fichiers sont clairement verrouillés. Par exemple les fichiers .DWG du logiciel de dessin Autocad sont dans un format fermé. Alors évidemment, d’autres éditeurs ont essayé de « deviner » comment fonctionnait le format .DWG afin de pouvoir ouvrir et enregistrer des fichiers compatibles AutoCAD avec leur logiciel. C’est ce qu’on appelle de la rétro-ingénierie, mais c’est souvent du bricolage, et l’éditeur original peut régulièrement changer la spécification de son fichier pour embêter ses concurrents, voir aller jusqu’à leur intenter des procès.

Or, s’il existe un domaine où les formats de fichiers devraient bien être ouverts, c’est celui de la construction. Nous interagissons toutes et tous avec des bâtiments au quotidien. Qu’il s’agisse de notre logement, de notre lieu de travail, d’un bâtiment public, etc, nous passons d’un bâtiment à l’autre en permanence.

Or, aussi étonnant que cela puisse paraître, il n’existe pas de format de fichiers de description des données utiles à la construction qui soit à la fois public ET largement utilisé. Le logiciel AutoCAD (et son format .DWG) et le logiciel REVIT (pour le processus BIM et ses formats .rfa, .rvt) de la société Autodesk, dominent largement le marché. Et les conséquences sont loin d’être négligeables. Cela « force la main » des différents corps de métiers (architectes, ingénieurs, constructeurs, artisans, etc) à utiliser ces logiciels et entretient le quasi-monopole d’Autodesk sur le marché. Utiliser d’autres logiciels reste possible, mais imaginez les conséquences si ce logiciel fait une « erreur » en ouvrant le fichier « immeuble-de-12-étages.dwg » à cause d’une erreur dans l’interprétation de la spécification….

Par ailleurs, en dehors des descriptions des murs, des calculs de poids de structures, il faut aussi intégrer des éléments comme les chauffages, les canalisations, les circuits électriques, les fenêtres, etc. Les données générées par un bâtiment (ou autre bâti, tel un pont ou une route) sont donc extrêmement nombreuses. La page wikipédia « Liste des logiciels CAO pour l’architecture, l’ingénierie et la construction » est d’ailleurs plus que conséquente, et sa section logiciels libres est plutôt réduite…

Il existe bien des formats standardisés pour gérer la modélisation du bâti immobilier, appelée « BIM ». Ainsi, l’IFC est un format de fichier standardisé (norme ISO 16739) orienté objet utilisé par l’industrie du bâtiment pour échanger et partager des informations entre logiciels. Mais il est assez peu utilisé et souvent décrit en format natif, ce qui rend l’interopérabilité entre logiciels complexe à réaliser malgré l’existence de l’IFC.

Il apparaît donc essentiel de disposer de formats qui soient ouverts (pour permettre l’interopérabilité), et normalisés (validés et éprouvés par les professionnels du métier) pour nos constructions.

Nous avons rencontré les membres de l’association Alliance Bâtiment qui met à la disposition des maîtres d’ouvrage, maîtres d’œuvre, entreprises, artisans et fabricants PME, TPE, un format ouvert et partagé. Cela permet de normaliser la donnée d’entrée dans les logiciels métiers et rendre les maquettes IFC interopérables. L’accès au processus BIM et l’usage des logiciels BIM est ainsi fortement simplifié !

Bonjour ! Pouvez-vous vous présenter ?

Jean-Paul BRET, Président de l’association : Ma longue carrière professionnelle dans la promotion immobilière à l’OPAC 38, le plus gros bailleur social de l’Isère, et comme Président de la Communauté d’Agglomération du Pays Voironnais (38) durant 12 ans m’incite à penser que le secteur de la construction doit impérativement accélérer sa transition numérique.

Image de Jean-Paul BRET
Jean-Paul BRET

J’ai pu constater en engageant de nombreuses opérations de construction que les nombreux acteurs autour d’un projet avaient souvent du mal à se coordonner voire se comprendre. C’est une banalité de parler de retard de travaux, de dépassements budgétaires, de malfaçons pouvant conduire à des conflits et de documents descriptifs des ouvrages difficilement exploitables pour la maintenance des ouvrages.

Thierry LEHNEBACH, Administrateur Délégué : Très tôt, j’ai été motivé par la protection de l’environnement, ce qui m’a conduit à m’engager pour l’écologie. Cela m’a amené à avoir un parcours d’élu, conseiller régional, puis maire et vice président de l’intercommunalité. Dans le même temps, mon activité professionnelle s’est organisée autour de la communication orientée vers le numérique et l’informatique en opensource, puis une dernière activité dans une entreprise artisanale.

Image de Thierry LEHNEBACH
Thierry LEHNEBACH

Je mets en œuvre ces acquis au service de l’association en tant que cheville ouvrière : communication, animation, gestion.
La transformation numérique de la société ouvre de nouvelles frontières qui donne un avantage disproportionné aux plus puissants qui s’approprient le réel grâce au contrôle de la donnée. Le problème est que la culture de la donnée n’est pas encore développée et qu’il y a une grande naïveté chez tous les décideurs, utilisateurs et simples citoyens.

Didier BALAGUER : Après une première création d’entreprise d’ingénierie spécialisée en acoustique en 1994, j’ai créé datBIM, éditeur de solutions numériques collaboratives pour la construction, en 2000. J’ai identifié dès l’origine qu’une clé de la coopération est l’échange fluide et fiable de données entre les acteurs indépendamment des outils logiciels utilisés, ce qui a amené datBIM à créer le format opendthX.

Image de Didier BALAGUER
Didier BALAGUER

Faire en sorte que tout type de données soit exploitable dans tout type d’applications à l’image du secteur des télécommunications où 2 correspondants peuvent communiquer indépendamment de la marque de leur téléphone ou des opérateurs de services auxquels ils souscrivent respectivement leur abonnement. La valeur induite par l’interopérabilité des données avec les applications à l’échelle d’un secteur tel la construction Française est estimée à plusieurs dizaines de milliards d’euros par an.

Qu’est-ce qui vous a incité à vous investir en tant que bénévoles dans cette nouvelle association ALLIANCE DU BATIMENT pour le BIM ?

Didier BALAGUER : Ouvrir le format était une évidence, le concéder à ALLIANCE DU BATIMENT, association loi 1901 gouvernée par les acteurs volontaires de la filière, un moyen d’apporter la confiance pour permettre aux acteurs de maîtriser leur devenir numérique pour répondre collectivement aux enjeux de notre société : transition écologique, liberté d’expression et d’entreprendre tout en renforçant la compétitivité de notre économie.

Logo Alliance du bâtiment

Jean- Paul BRET : Lorsque Didier BALAGUER m’a proposé de créer l’ALLIANCE DU BATIMENT pour le BIM, avec pour objectif de faciliter la transition numérique de la filière avec les outils mis à disposition en opensource, j’ai tout de suite accepté. Cela a conduit au transfert à l’association de la gestion et la gouvernance du format opendthX initialement développé par la société datBIM pour en faire un bien commun, libre d’usage.

L’absence de langage commun et d’interopérabilité entre les données et les outils pénalise souvent la qualité des projets et l’efficacité de toute la filière constructive. Le BIM qui est la numérisation du processus de construction peut améliorer cette situation. C’est un moyen de le faire depuis la phase de conception d’un projet jusqu’à celle de la déconstruction en passant par la construction et l’exploitation.

Mais il ne doit pas être réservé aux grands acteurs de la filière et conduire à une plateformatisation et une appropriation de la valeur par quelques acteurs dominants ou des plateformes de type GAFAM. Or c’est ce qu’il se passe avec les formats propriétaires des logiciels de CAO adaptés pour le BIM.
Il doit être facilement accessible aux PME, TPE et artisans qui représentent environ 95% des entreprises de la filière constructive.

Pour cela nous allons mettre à leur disposition de nouvelles solutions d’interopérabilité qui faciliteront leur manière d’accéder à la donnée sur les objets. Elles leur permettront de contribuer à la production de la maquette numérique. L’enjeu est important puisqu’en cas de succès l’ALLIANCE DU BATIMENT pourrait avoir valeur d’exemple. Cela pourrait à ce titre, être décliné bien au-delà nos frontières.

Nous sommes d’autant plus motivés que ce projet, qui vise à faciliter la coopération au sein de la filière BTP, est totalement en phase avec les objectifs du plan gouvernemental BIM 2022 qui reposent sur le principe directeur du BIM POUR TOUS. Enfin, pour moi le BIM n’est pas seulement une démarche qui permet d’optimiser l’échange d’information et la collaboration entre acteurs d’un projet constructif. C’est aussi un outil au service de la transition écologique puisqu’il permet une véritable traçabilité environnementale.

Dans les deux cas, les enjeux sont cruciaux tant sur le plan de la compétitivité économique que des aspects sociétaux.

Thierry LEHNEBACH : ALLIANCE DU BATIMENT ouvre un front dans le secteur de la construction qui concerne, en terme d’échange de données relatives à l’objet constructif, 25 % du PIB quand on prend en compte l’ensemble des acteurs (BTP, banques, assurances, etc..) en considérant que la donnée numérique doit être un commun dans cette filière.

Pouvez-vous nous expliquer un peu plus ce qu’est le BIM ?

Image d'une maquette numérique
Maquette numérique

Thierry LEHNEBACH : Le BIM ou Building Information Modeling est la modélisation des informations de la construction. C’est l’utilisation d’une représentation numérique partagée d’un actif bâti. Le BIM facilite les processus de conception, de construction et d’exploitation. Ces actifs bâtis sont des bâtiments, ponts, routes, tunnels, voies de chemin de fer, usines,…
Le processus produit un livrable numérique, le building information model, en français la maquette numérique. C’est le support et en même temps le document numérique du processus qui doit permettre à tous les acteurs de collaborer.

Pouvez-vous nous parler du projet de l’association ?

Thierry LEHNEBACH : ALLIANCE DU BATIMENT pour le BIM met à disposition librement le format opendthX dont elle a acquis les droits exclusifs d’exploitation. Ce format a été développé par la société datBIM pour structurer des bibliothèques d’objets pour le BIM et les diffuser en permettant l’interopérabilité entre tous les logiciels.

La maquette numérique englobe la géométrie de la construction, les relations spatiales, les informations géographiques. Elle englobe également les quantités, ainsi que les propriétés des éléments et sous-éléments de construction. Le format IFC (NF EN ISO 16739) permet de classer ces informations de manière logique selon une arborescence spatiale. Cette arborescence est définie par projet, site, bâtiment, étage, espace, composant.

La maquette numérique standardisée au format international IFC rassemble une bonne partie des informations. Elle rassemble les formes et matériaux, les calculs énergétiques pour le chauffage, la climatisation, la ventilation. Cela comprend également les données sur l’aéraulique, l’hydraulique, l’électricité, radio et télécommunications, levage, emplacement des équipements, alarmes et sécurité, maintenance, etc.

Mais le format IFC n’est pas suffisant pour permettre la réalisation d’un processus BIM abouti. Il y a deux problèmes majeurs :

  • Le premier est que les objets au sein de la maquette IFC sont généralement structurés par des formats propriétaires et donc non interopérables. Les différents logiciels métiers utilisés sur un même projet utilisent des formats de données natifs. Ces formats concernent les objets avec des données décrites de différentes manières. L’écosystème BIM est un système multi-entrées dans lequel on introduit des données qui sont doublonnées et redondantes. Celles-ci constituent alors obligatoirement une donnée d’entrée de mauvaise qualité. Par conséquent elle amène à produire collectivement un résultat de piètre qualité. Ce phénomène pénalise des échanges fluides avec les logiciels des autres corps de métiers.
  • Le second problème est que les formats propriétaires permettent aux acteurs les plus puissants de s’approprier le contrôle des données, ce qui créé des barrières et ouvre la voie à des situations de monopole de type GAFAM.

La mise en œuvre du BIM doit être simple pour un déploiement généralisé. L’association met à disposition des acteurs le format opendthX et participe aux développements d’outils pour permettre l’accès au BIM à tous les acteurs.

Comment fonctionnent ces outils ?

Didier Balaguer : Le processus collaboratif proposé par ALLIANCE DU BATIMENT s’appelle le BIM CIQO (Collaboration In – Quality Out). Il est basé sur la normalisation de la donnée d’entrée introduite dans les logiciels métiers de la construction et l’enrichissement des « objets » pour permettre la contribution de tous au processus BIM. C’est la raison d’être du format Open dthX.

Schéma expliquant le BIM facile
Schéma expliquant le BIM facile

Le processus CIQO, ou BIM universel, est le traitement du GIGO (Garbage In Garbage Out), caractéristique du BIM complexe multi-formats natifs.

On peut le mettre en œuvre avec eveBIM, logiciel de visualisation / enrichissement de maquettes IFC développé par le CSTB ou en mode saas en cours de développement (bim-universel.com) pour définir des objets BIM sur la base de modèles génériques de type POBIM (Propriétés des objets BIM ), qui est une bibliothèque de 300 modèles d’objets génériques à partir d’un dictionnaire de 3200 propriétés, définies selon la norme NF XP P 07150 devenue en 2020 NF EN ISO 23386.

Cette bibliothèque à été réalisée dans le cadre des travaux du plan de transition numérique du Bâtiment (PTNB) accessible depuis kroqi.MydatBIM.com, plateforme d’objets labellisée par l’AMI (appel à manifestation d’intérêt) kroqi, plateforme de gestion de projets BIM de référence du Plan gouvernemental BIM 2022. Il existe également d’autres bibliothèques :

Comment est organisée votre association ?

Jean-Paul BRET : L’association est structurée par 6 collèges, dont les deux principaux piliers sont les organisations professionnelles telles que des CAPEB et des syndicats qui représentent des acteurs petits et moyens de la filière, et de maîtres d’ouvrage publics et privés. Il y a également des collèges association, organismes de formation, entreprises et citoyens.

Acteurs impliqués dans l'Alliance du Bâtiment
Acteurs impliqués dans Alliance du Bâtiment

Le modèle économique repose sur des adhésions, des financements sur projets et sur le produit de la formation par le biais de modules destinés à être mis en œuvre par des organismes de formation que l’association labellise.

 

C’est une structure légère qui a vocation à le rester tout en se professionnalisant pour s’inscrire dans la durée.

Selon vous, quels sont les enjeux d’un « BIM libre » ?

Le BIM libre permet à tous les acteurs de la filière des garder leur autonomie sans être rendus dépendants par des outils qu’ils ont eux même développés avec leur compétence mais dans un format qu’ils ne maîtrisent pas. L’interopérabilité complète permet aussi d’envisager le développement de savoir-faire partagés par l’ensemble de la filière pour faire monter celle-ci en efficacité. Il est possible par exemple d’imaginer de mettre en œuvre l’intelligence artificielle pour extraire de plusieurs projets des règles pour optimiser l’efficacité énergétique d’un type de construction.

L’accès à ce processus pour tous les acteurs est aussi un élément important pour les maîtres d’ouvrage qui veulent garder un écosystème d’entreprises de proximité. C’est une garantie pour la résilience des territoires et une sécurité contre la concentration qui conduit aux monopoles de fait.

Quelles sont les particularités de ce format Open dthx ?

Le format Open dthX a été développé par la société datBIM à partir de 2011 dans le cadre d’une collaboration avec l’école Centrale de Lyon et des experts en modélisation de la connaissance et ingénierie des systèmes. Les travaux ont bénéficié du soutien de la région Rhône-Alpes et l’Ademe (Innov’R) ainsi que de l’Europe (GreenConserve pour l’innovation de services à valeur ajoutée pour la construction durable et Eurostars).

L’enjeu de départ est de permettre aux acteurs du bâtiment (fournisseurs de matériaux, architectes, ingénieurs, …) de s’échanger – dès les premières phases du projet – les caractéristiques techniques des produits mis en œuvre dans la construction.

Logo du format Open dthX
Logo du format Open dthX

Un Dictionnaire Technique Harmonisé (DTH) a été mis en place à cette fin de nature dynamique afin que la sémantique puisse s’enrichir en fonction des besoins sans perturber les usages du format. Il maintient une liste de propriétés dans différents domaines (géométrique, acoustique, thermique, incendie, environnement, administratif…) en définissant pour chaque propriété un identifiant unique et une unité de mesure standard.

En 2015, la documentation du format est rendue publique, en faisant un format ouvert. Il est proposé à la normalisation entraînant la création d’un groupe d’experts sur les formats d’échange à la commission de normalisation, Afnor PPBIM. En 2019, il permet la distribution de la première bibliothèque d’objets génériques POBIM (propriétés des objets pour le BIM) décrit à partir d’un dictionnaire national de 3200 propriétés issues des travaux réalisés dans le cadre du plan gouvernemental de transition numérique du bâtiment (PTNB). En 2021, le plan gouvernemental BIM 2022 l’expérimente pour la réalisation d’un référentiel d’objets pour produire une maquette numérique contenant les informations nécessaires à l’instruction des autorisations d’urbanisme.

Normaliser la donnée d’entrée dans les logiciels métiers pour produire collectivement un livrable numérique de qualité (au sens interopérabilité du terme : exploiter le livrable qui est une base de données dans une application autre que celle qui l’a produite) et assurer l’enrichissement des objets à l’avancement du projet pour permettre la contribution de tous au processus BIM indépendamment des logiciels utilisés.

Quelle est la licence retenue pour la spécification de ce format ?

L’usage du format Open dthX est soumis à l’acceptation des termes de la licence « Creative Commons Attribution Pas de Modification 3.0 France ».
Sa principale valeur c’est justement qu’il soit unique afin d’assurer l’interopérabilité d’où le choix de ce type de licence. Des variantes porteraient préjudices à l’interopérabilité.

Qui utilise ce format de fichier Open dthx aujourd’hui ? Avec quels logiciels ?

Les utilisateurs du format Open dthX sont les acteurs de la construction : architectes, ingénieurs, entreprises, fabricants, maîtres d’ouvrage qui utilisent des logiciels de CAO tels Revit, ArchiCAD et de visualisation tels eveBIM, ciqo.eu…

De quoi avez-vous besoin aujourd’hui ? Et à plus long terme ?

Le premier enjeux est de faire connaître le projet de l’association. C’est assez difficile car la conscience de l’enjeu est très peu développé chez les décideurs et la communication des leaders du BIM qui vantent la puissance de leurs outils impose l’idée que leurs solutions sont le BIM alors que ces solutions n’en sont qu’une partie et que celle-ci est inadaptée à une approche data performante généralisable.

Nous cherchons aussi des partenaires qui mettent en œuvre ces outils. Nous sommes convaincus que les bénéfices de ces réalisations se diffuseront très rapidement auprès des décideurs vigilants sur les questions de maîtrise des données.

Enfin, nous voulons mettre en place un modèle qui nous permette de nouer des partenariats avec des développeurs qui peuvent proposer des développements qui utilisent le format pour des solutions correspondantes à des besoins métier liés à la construction.

Un mot ou une question à ajouter ?

Nous proposons à tous les décideurs en matière de construction de les accompagner pour mettre en œuvre le BIM universel de façon à avoir le plus grand nombre de références et de cas d’usage à diffuser pour propager la démarche.

 

Ressource à consulter :




Infoclimat : un commun météorologique et climatologique à préserver !

Infoclimat est une association de passionné·es de météo, qui agit pour favoriser et vulgariser l’échange de données et de connaissances autour de la météo et du climat.
Nous baignons dans les mêmes eaux et partageons les mêmes valeurs : les communs culturels doivent être ouverts à toutes et tous pour l’intérêt général !
L’association va fêter ses 20 ans et se lancer dans un nouveau projet : le recrutement de son·sa premier·ère salarié·e. C’est l’occasion de donner la parole à Frédéric Ameye et Sébastien Brana, tous deux bénévoles.

Bonjour Frédéric et Sébastien, pouvez-vous vous présenter ?

Frédéric Ameye (FA), 27 ans, je suis ingénieur dans les systèmes embarqués pendant les heures ouvrables… et en-dehors de ça, je suis depuis longtemps « Linuxien » et (modeste) défenseur du logiciel libre, mais aussi de l’égalité des chances à l’école — issu d’une famille ouvrière très modeste, c’est quelque chose qui me tient beaucoup à cœur. Le reste du temps (quand il en reste), vous me trouverez principalement en rando au fin fond de la montagne…

J’ai intégré l’aventure Infoclimat en 2009 (j’avais alors 15 ans), période à laquelle j’ai « refondu » le site web de l’asso à partir de l’ordinateur familial à écran cathodique, que je monopolisais des dizaines d’heures par semaine, jusqu’à très tard dans la nuit. J’ai continué ce rôle jusqu’à aujourd’hui (avec un écran plat, et moins d’heures dans la nuit car la trentaine arrive vite). Entre-temps, j’ai rejoint le Conseil d’Administration, et je suis ensuite devenu Vice-Président en 2015.

Sébastien Brana (SB), 42 ans. Dans la vie « hors Infoclimat », je suis chef de projet informatique à la Direction générale des finances publiques… et comme Frédéric, en dehors de « ça », j’occupe une grande partie de mon temps libre (soirées, week-end et congés) au profit du site et de l’association que j’ai rejoint en 2005 et dont je suis également Vice-Président depuis 12 ans. Au-delà des phénomènes météo (orages et chutes de neige notamment) qui m’ont toujours fasciné depuis aussi loin que je me souvienne, je suis également passionné par la communauté que nous avons formée depuis une vingtaines d’années, rassemblant des personnes de tous âges (des gamins de 10 ans aux retraités) et de tous milieux, amateurs ou professionnels, scientifiques ou littéraires, ou simplement amoureux de beaux paysages et de photographies. La météo touche tout le monde, les questions liées au climat interrogent tout le monde – bref, ces sujets intéressent voire passionnent bien au-delà des barrières sociales habituelles !

Vous êtes membres bénévoles de Infoclimat, pouvez-vous nous parler du projet de l’association ?

SB : Initialement, Infoclimat était un petit groupe de passionnés de météo et de climat, qui partageaient leurs relevés entre-eux à la fin des années 90, sur un site web appelé « OrageNet ». Tout cela a progressivement grossi, jusqu’à l’année 2003, où l’association a été créée principalement pour subvenir aux besoins d’hébergement du site web. A l’époque, nous étions déjà (et sans le savoir!) en « Web 2.0 » et pratiquions les sciences participatives puisque l’essentiel du contenu était apporté par les passionnés ; nous étions alors bien loin d’imaginer que les problématiques liées au climat deviendraient un enjeu mondial avec une telle résonance médiatique.

Site internet d'Infoclimat entre les années 90 et aujourd'hui
Infoclimat a beaucoup évoluée, entre les débuts sur un internet confidentiel des années 90 dédié au partage, au web d’aujourd’hui.

 

FA : Depuis, l’objet social s’est considérablement diversifié, avec la montée en puissance de notre asso. Aujourd’hui, nous visons trois thématiques particulières :

  • L’engagement citoyen au service de la météo et du climat : partager ses relevés, ses observations météo, installer des stations météorologiques,… au service de tous ! Cela permet de comprendre comment le climat change, mais aussi de déceler des particularités locales que les modèles de prévision ne savent pas bien prendre en compte, ou qui ne peuvent pas être mesurées facilement.
  • Valoriser la donnée météo et climato, qu’elle soit issue de services officiels ou diffusée en « OpenData » par nous ou nos passionnés, et en particulier en faire des outils utiles autant aux « pros » et chercheurs, qu’au service de la vulgarisation des sujets climatiques pour le grand public. Les utilisations sont très nombreuses : agriculture, viabilité hivernale, thermique dans l’habitat, recherches sur le changement climatique, production électrique, journalistes…
  • Former et transmettre les connaissances, par la production de contenus de vulgarisation scientifique, l’organisation de « rencontres météo », ou encore des interventions auprès des écoles, dans des événements sur le terrain ou sur les réseaux sociaux. Bref, contrer la désinformation et le buzz !

 

Installation de matériel météo
Quand Infoclimat débarque quelque part, c’est rarement pour pique-niquer… Mais plutôt pour installer du matériel météo !

 

Vous faites donc des prévisions météo ?

SB : Même si le forum est largement animé par des prévisionnistes amateurs, nous parlons finalement assez peu de prévisions météo : le cœur du site, c’est l’observation météo en temps réel et la climatologie qui résulte des données collectées, qui sont des sujets bien différents ! Il y aurait tant à dire sur le monde de la prévision météo, mais cela mériterait un article à lui seul, car il y a un gros sujet là aussi sur l’ouverture des données et la paternité des algorithmes… Souvent négligée, l’observation météorologique est pourtant fondamentale pour produire une bonne prévision. Pour faire court, la donnée météo « observée » est la nourriture qu’il faut pour entraîner les modèles climatiques, et faire tourner les modèles numériques qui vous diront s’il faut un parapluie demain sur votre pixel de 1km².

Observations météo avec le modèle français AROME
Quantité d’observations météo intégrées dans le modèle de prévisions français « AROME », source principale de toutes les prévisions en France métropolitaine. La performance des modèles météorologiques est fortement corrélée à la quantité, la fréquence, et à la qualité de leurs données d’entrées (observations radar, satellite, avions, stations météo au sol,…). La quantité d’observations des stations Météo-France est à peu près équivalente à la quantité de données produites par les passionnés d’Infoclimat. Graphique simplifié, hors données radar. Avec l’aimable autorisation de Météo-France et du CNRM.

 

FA : Ce qu’il faut savoir, c’est que l’immense majorité des sites internet ou appli que vous consultez ne font pas de prévisions météo, mais utilisent des algorithmes automatisés qui traitent des données fournies (gratuitement ou avec redevance) par les organismes publics (Météo-France, la NOAA, le Met-Office, l’organisme européen ECMWF,…). La qualité des prévisions est en gros corrélée à l’argent que les créateurs des sites et des applis peuvent injecter pour récolter des données brutes de ces modèles numériques. Par exemple, pour avoir les données du modèle de Météo-France « AROME », c’est à peu près gratuit car les données sont sous licence Etalab, mais si vous voulez des données plus complètes, permettant d’affiner vos algorithmes et de proposer « mieux », c’est sur devis.

Dès lors, Infoclimat ne souhaite pas se lancer dans cette surenchère, et propose uniquement des prévisions automatisées issues de données ouvertes de Météo-France et de la NOAA, et indique très clairement la différence entre prévisions automatisées et bulletins rédigés par des passionnés.

Image des "cubes" de données des modèles météo
La Terre est découpée en petits cubes dans lesquels les modèles météo estiment les paramètres de l’atmosphère à venir. Les cubes sont généralement bien plus gros lorsque les échéances sont lointaines (J+4, J+5…), ce qui empêche les modèles météorologiques de discerner les phénomènes météo de petite échelle (averses, orages, neige, effets des reliefs et des côtes). Pourtant, de nombreuses appli météo se contentent de vous fournir grossièrement ces données sans l’explication qui va avec. Chez Infoclimat, on laisse volontairement la résolution native, pour ne pas induire le lecteur en erreur sur la résolution réelle des données.

 

Cela me fait toujours rire (jaune) quand j’entends « [site ou appli] a de meilleures prévisions à chaque fois, et en plus, on les a à 15 jours ! » : lorsqu’il s’agit de prévisions « automatiques », par ville, il est probable qu’il utilise les mêmes données que tous les autres, présentées légèrement différemment, et qu’il s’agisse juste d’un biais de confirmation. Il existe bien sûr quelques exceptions, certaines entreprises faisant un vrai travail de fusion de données, d’analyse, de suppression des biais, pour proposer des informations de très grande qualité, généralement plutôt payantes ou pour les pros. Mais même chez ceux qui vous vendent du service d’aide à la décision, de protection des biens et des personnes, des données expertisées ou à vocation assurantielles, vous seriez très surpris de la piètre qualité de l’exploitation qui est faite de ces données brutes.

Graphique présentant la technique de prévision ensembliste
Les modélisateurs météo ont plein de techniques pour prendre en compte les incertitudes dans les observations et les modèles, notamment ce que l’on appelle la « prévision ensembliste ». Mais ces incertitudes sont rarement présentées ou expliquées au public. Ici par exemple, le graphique présente la quantité de pluie prédite par un modèle météo le 6 janvier, pour la période entre le 6 janvier et le 16 janvier 2022, sur un point de la France. Le modèle considère plusieurs scénarios d’évolution possible des futurs météorologiques. Source : ECMWF, CC BY 4.0.

 

Malheureusement, cette situation rend très délicate la perception des prévisions météo par le grand public (« ils se trompent tout le temps ») : la majorité des applis prend des données gratuites, de faible qualité, sur le monde entier, qui donnent une prévision différente 4 fois par jour au fil des calculs. Cela ne met vraiment pas en valeur le travail des modélisateurs, qui font pourtant un travail formidable, les modèles numériques s’améliorant considérablement, et décrédibilisent aussi les conclusions des organismes de recherche pour le climat (« ils ne savent pas prévoir à 3 jours, pourquoi ils sauraient dans 50 ans ?! »), alors qu’il s’agit surtout d’une exploitation maladroite de données brutes, sans accompagnement dans leur lecture.

Graphique présentant l'amélioration de la qualité des prévisions de l'état de l'atmosphère
Ce graphique présente, grosso-modo, l’amélioration de la qualité des prévisions de l’état de l’atmosphère au fil des années, à diverses échéances de temps (jaune = J+10, vert = J+7, rouge = J+5, bleu = J+3) et selon les hémisphères terrestres. Plus c’est proche de 100%, meilleures sont les prévisions ! Source : ECMWF, CC BY 4.0. 

 

Du coup, quelles actions menez-vous ?

FA : Notre action principale, c’est la fourniture d’une plateforme sur le web, qu’on assimile souvent au « Wikipédia de la météo », ou à un « hub de données » : nous récoltons toutes sortes de données climatiques et météorologiques de par le monde, pour les décoder, les rendre digestes pour différents publics, et la mettre en valeur pour l’analyse du changement climatique. Ce sont par exemple des cartographies, ou des indices d’évolution du climat. C’est notre rôle initial, qui aujourd’hui compile plus de 6 milliards de données météo, à la qualité souvent rigoureusement contrôlée par des passionnés ! Il faut savoir que nous n’intégrons pas toutes les stations météo : nous respectons des normes de qualité du matériel et de l’environnement, pour que les données soient exploitables et comparables entre-elles, comparables avec des séries climatiques historiques, et assimilables dans des modèles numériques de prévision.

 

Infoclimat propose une interface simple et très complète
Infoclimat propose l’accès à toutes les informations météo et climatiques dans des interfaces qui se veulent simples d’accès, mais suffisamment complètes pour les plus experts. Dur équilibre !

 

SB : Avec l’accroissement de notre budget, nous avons pu passer à l’étape supérieure : installer nos propres stations météo, et soutenir les associations locales et les passionnés qui en installent et qui souhaitent mettre leurs données au service d’une base de données commune et libre.

Randonnée pour installer la station météo à Casterino
Les passionnés ne reculent devant rien pour l’intérêt général. Aller installer une station météo à Casterino, village des Alpes Maritimes qui s’est retrouvé isolé de tout après la tempête Alex ? C’est fait, et avec le sourire malgré les kilomètres avec le matériel sur le dos ! Retrouvez l’article ici

 

Il faut savoir que la donnée météo se « monnaye », et chèrement: Météo-France, par exemple, ne met à disposition du grand public que quelques pourcents de ses données, le reste étant soumis à des redevances de plusieurs centaines de milliers d’euros par an (on y reviendra). Ce n’est d’ailleurs pas le cas dans tous les pays du monde, les États-Unis (NOAA) ont été précurseurs, beaucoup de pays Européens s’y mettent, mais la France est un peu en retard… Nous sommes partenaires de Météo-France, participons à des travaux communs dans le cadre du « Conseil Supérieur de la Météorologie », mais c’est très long, trop long, et cela prive Météo-France d’une source de revenus importante dans un contexte de stricte restriction budgétaire. L’établissement public administratif se retrouve en effet pris dans une injonction contradictoire par son autorité de tutelle (le Ministère de la Transition écologique et solidaire) : d’un côté il doit « libérer » les données publiques et mettre en place les infrastructures nécessaires, de l’autre, on lui intime l’ordre de trouver de nouvelles sources de financement par sa branche commerciale, et on lui réduit ses effectifs !

Redevances Météo France
Redevances demandées par Météo-France pour accéder aux données météo de son réseau « RADOME » (90% des stations françaises). Hors de portée de notre association ! Source

 

Données ouvertes météo France et données Infoclimat
Le réseau de stations en France, avec les données ouvertes de Météo-France (à gauche), et avec les données Infoclimat et partenaires en plus (à droite). Remarquez le contraste avec certains autres pays Européens !

 

Aujourd’hui, Infoclimat c’est donc un bon millier de stations météo (les nôtres, celles des passionnés, et de nos associations partenaires), qui complètent les réseaux nationaux dans des zones non couvertes, et qui permettront à l’avenir d’améliorer la fiabilité des modèles météo de Météo-France, dans des travaux que nous menons avec eux sur l’assimilation des réseaux de données partenaires. Parfois d’ailleurs, nous réinstallons des stations météo là où Météo-France est parti ou n’a pas souhaité améliorer ou maintenir des installations, comme au Mont-Ventoux (84), ou à Castérino (06). Et ces données intéressent une multitude d’acteurs, que nous découvrons souvent au hasard des installations : au-delà de l’intérêt pour la météo des particuliers (« combien fait-il au soleil? » « quelle quantité de pluie est tombée la nuit dernière? »), les activités professionnelles météo-sensibles allant de l’agriculture à l’expertise en assurance, en passant par les études de risques et/ou d’impacts jusqu’aux recherches sur les « ICU » (ilots de chaleurs urbains observés dans les milieux urbanisés) se montrent très demandeuses et n’hésitent pas à se tourner vers nous pour leur fournir de la « bonne data-météo ».

Réhabilitation d'une station météo au Mont-Ventoux
Réhabiliter une station météo au sommet du Mont-Ventoux : check. Les données météo sont par ici. 

 

Enfin, le troisième pilier, c’est la pédagogie. Nous avons repris en 2018, à nos frais et sans aucune subvention, l’initiative « Météo à l’École », qui avait été lancée en 2008 par le Ministère de l’Éducation Nationale avec Météo-France et l’Observatoire de Paris, mais qui a failli disparaître faute de budget à la fin du « Grand Emprunt ». L’objectif : sensibiliser de manière ludique les publics du primaire et du secondaire aux enjeux de la météo et du climat. Installer une station météo dans un collège permet de faire un peu de techno, traiter les données en faisant des maths, des stats et de l’informatique, et enfin les analyser pour parler climat et Système Terre.
Aujourd’hui, nous hébergeons les données des quelques 60 stations, ainsi que les contenus pédagogiques de Météo À l’École, permettant aux profs d’échanger entre eux.

Photo : Météo à l'École
Installer des stations météo dans les écoles, expliquer les concepts de la météo et du climat, « jouer » avec des données, et discuter entre profs : c’est ce que permet le programme Météo à l’École

 

Depuis de nombreuses années, nous complétons cela avec des interventions auprès des jeunes et moins jeunes, sous forme d’ateliers ou de journées à thème (« Rencontres Météo et Espace », « Nuit des Chercheurs », « Fête du Vent »,…), un peu partout en France selon la disponibilité de nos bénévoles !

Rencontre Météo et Espace
Lors des Rencontres Météo et Espace organisées par le CNES, Infoclimat et Météo-France, les enfants apprennent par exemple comment on mesure les paramètres en altitude dans l’atmosphère, grâce aux ballons sondes.

 

Photos : évènements tout publics
Nous aimons autant apprendre des choses aux très jeunes (à gauche), qu’aux moins jeunes (à droite), lors d’événements tout-publics.

 

Quelles valeurs défendez-vous ?

FA : La première de nos valeurs, c’est l’intérêt général ! Ce que nous avons conçu au cours de ces vingt dernières années n’appartient à personne, c’est un commun au service de tous, et pour certaines informations, c’est même le point de départ d’un cercle vertueux de réutilisation, par la libération des données en Open-Data.

Page OpenData d'Infoclimat
La page OpenData d’Infoclimat, qui permet de s’abstraire des complexités des formats météo, des différents fournisseurs, et tente de résoudre au mieux la problématique des licences des données.

Comme on l’a dit plus haut, le monde de la météo est un juteux business. Vous trouverez pléthore de sites et applis météo, et leur composante commune, c’est que ce sont des sociétés à but lucratif qui en font un business, sous couvert d’engagement citoyen et de « communauté ». Vous y postez vos données et vos photos, et ils en tirent en retour des revenus publicitaires, quand ils ne revendent pas les données météo à d’autres sociétés (qui les mâchouillent et en font de l’analyse pour d’autres secteurs d’activité).

Parmi les initiatives similaires, on peut citer parmi les plus connues « Weather Underground » (appartenant à IBM et destinée à alimenter Watson) ou encore « Awekas » (Gmbh allemande), « Windy » (société tchèque), « Météociel » (SAS française), qui sont des sociétés privées à plusieurs centaines de milliers ou quelques millions d’euros de CA. On notera d’ailleurs que toutes ces initiatives ont des sites souvent moins complets que le notre !
On se retrouve dans une situation parfois ubuesque : ces types de sociétés peuvent acheter des données payantes à l’établissement public Météo-France (pour quelques centaines de milliers d’euros par an), et les proposent ensuite à tous sur leur site web, rémunéré par la publicité ou par abonnement à des fonctionnalités « premium ». Alors qu’elles pourraient bénéficier à tous dans une base de données librement gérée comme celle d’Infoclimat, et aussi servir nos outils d’analyse du changement climatique ; il faut passer obligatoirement par les sites de ces sociétés privées pour bénéficier des données produites par l’établissement public… et donc en partie avec l’argent public. D’autres acteurs de notre communauté en faisant déjà echo il y a bien des années, et la situation n’a pas changé : https://blog.bacpluszero.com/2014/06/comment-jai-failli-faire-doubler-le.html.

Photo : visite Météo France
Nos adhérents et administrateurs lors d’une visite chez Météo-France, en 2016. Malgré un partenariat depuis 2009, l’établissement public éprouve toujours des difficultés à partager ses données avec la communauté, mais s’engage à ses côtés dans la formation et le support technique. En mémoire de nos bénévoles disparus Pouic, Mich’, Enzo.

 

SB : Notre force, c’est de pouvoir bénéficier d’une totale indépendance, grâce à nos adhérents, mécènes et donateurs. On a réalisé le site dont on a toujours rêvé, pas celui qui générera le plus de trafic possible pour en tirer un revenu. Les données des stations météo que nous finançons sont toutes placées sous licences ouvertes, et nos communications sont rigoureuses et factuelles plutôt que « putaclic » (ce qui nous vaut d’ailleurs une notoriété encore assez limitée chez le grand public, en dehors des photos de nos contributeurs reprises dans les bulletins météo de France TV notamment).

Trouvez-vous aussi votre indépendance vis-à-vis des GAFAM ?

FA : Cela reste encore perfectible : si nous croyons à notre indépendance et au respect des utilisateurs, il y aurait encore des reproches à nous faire. Nous mettons vraiment beaucoup en place pour respecter les données (qu’elles soient météo, personnelles, ou les droits des photographes), nous auto-hébergeons l’immense majorité des contenus (sur 12 serveurs dédiés OVH, du cloud Scaleway, et des machines gracieusement prêtées par Gandi, et même un NAS chez un administrateur fibré !), et essayons d’éviter les services tiers, et les fuyons au possible lorsqu’ils sont hébergés ou contrôlés à l’étranger. Mais tout n’est pas toujours si simple.

Par exemple, nous utilisions jusqu’à très récemment encore Google Analytics, par « simplicité » : tout notre historique depuis 2008 y est stocké, et une instance Matomo assez dimensionnée pour 150M de pages vues par an, ça veut dire gérer une nouvelle machine, et des coûts supplémentaires… pour une utilisation assez marginale, notre exploitation des statistiques étant très basique, puisque pas de publicités et pas de « conversions » ou « cibles d’audience »… Mais tout de même appréciée des bénévoles pour analyser la fréquentation et l’usage des rubriques du site. Il doit aussi traîner quelques polices de caractères hébergées par Google, mais tout le reste est 100% auto-hébergé et/ou « fait maison ».

Complexité des cartes de Infoclimat
Nos cartes sont complexes et nécessitent des données géospatiales de bonne qualité, et à jour. Maintenir à jour une telle base, seuls, et à l’échelle mondiale, est… un projet à lui tout seul.

 

Nous sommes aussi de gros consommateurs de contenus cartographiques, et proposons des interfaces de visualisation mondiales plutôt jolies (basées sur OpenLayers plutôt que GoogleMaps), mais qui nécessitent des extractions de données particulières (juste les villes, un modèle de terrain haute résolution, ou bien juste les rivières ou limites administratives). C’est un sujet qui peut aussi être vite difficile à gérer.
À une époque, on stockait donc une copie partielle de la base de données OpenStreetMap sur l’Europe, et je générais moi-même des carto avec Tilemill / Mapserver / Geowebcache et des styles personnalisés. Les ressources nécessaires pour faire ça étaient immenses (disque et CPU), la complexité technique était grande, et que dire quand il faut tenir toutes ces bases à jour. C’est un projet à lui tout seul, et on ne peut pas toujours réinventer la roue. Bref, pour le moment, nous utilisons les coûteux services de Mapbox.

Vous nous avez parlé de certaines limites dans votre travail bénévole, qu’est-ce qui vous pose problème ?

FA : Le problème majeur, c’est le développement web du site. La majorité de nos outils sont basés sur le site web : cartes, graphiques, statistiques climatiques, espaces d’échange, contenus pédagogiques, tout est numérique. Aujourd’hui, et depuis 13 ans, le développement et la maintenance du site et de ses serveurs repose sur un seul bénévole (moi !). Déjà, ce n’est pas soutenable humainement, mais c’est aussi assez dangereux.
La raison est simple : un logiciel avec 400.000 lignes de code, 12 serveurs, des technologies « compliquées » (formats de fichiers spécifiques à la météo, cartes interactives, milliards d’enregistrements, bases de données de plusieurs téraoctets,…), ce n’est pas à la portée du premier bénévole qui se pointe ! Et il faut aussi beaucoup d’accompagnement, ce qui est difficile à combiner avec la charge de travail existante.

Pour les plus geeks d’entre-vous, concrètement, voici les technos sur lesquelles sont basées nos plateformes : PHP (sans framework ni ORM !), Javascript/jQuery, OpenLayers, Leaflet, Highcharts, Materialize (CSS), pas mal de Python pour le traitement de données météo (Scipy/Numpy) du NGINX, et pour les spécifiques à notre monde, énormément de GDAL et mapserver, geowebcache, des outils loufoques comme NCL, des librairies pour lire et écrire des formats de fichiers dans tous les sens (BUFR, SYNOP, METAR, GRIB2, NetCDF).
Et bien sûr surtout MariaDB, en mode réplication (et bientôt on aura besoin d’un mode « cluster » pour scaler), des protocoles de passage de message (RabbitMQ, WebSockets), de l’ElasticSearch et SphinxSearch pour la recherche fulltext, et du Redis + Memcached pour les caches applicatifs.
Au niveau infra, évidemment de la gestion de firewall, de bannissement automatique des IP, un peu de répartition de charge, de l’IP-failover, un réseau dédié entre machines (« vRack » chez OVH), beaucoup de partages NFS ou de systèmes de fichiers distribués (GlusterFS, mais c’est compliqué à maintenir donc on essaie de migrer vers de l’Object-Storage type S3).
Et on a aussi une appli mobile Android en Java, et iOS en Swift, mais elles sont vieillissantes, fautes de moyens  (leur développement a été sous-traité), et la majorité des fonctionnalités est de toutes façons destinée à être intégrée sur le site en mode « responsive design ».
Je passe sur la nécessité de s’interfacer avec des API externes (envois de mails, récupération de données météo sur des serveurs OpenData, parsing de données météo, API de la banque pour les paiements d’adhésions), des outils de gestion interne (Google Workspace, qui est « gratuit » pour les assos, hé oui !), des serveurs FTP et VPN pour connecter nos stations météo, un Gitlab auto-hébergé pour le ticketing et le code source …

SB : On a aussi des difficultés à dégager du temps pour d’autres actions : installer des stations météo par exemple, ce n’est pas négligeable. Il faut démarcher des propriétaires, obtenir des autorisations, parfois signer des conventions compliquées avec des collectivités locales, gérer des problématiques « Natura 2000 » ou « Bâtiments de France », aller sur site,… c’est assez complexe. Nous essayons de nous reposer au maximum sur notre communauté de bénévoles et adhérents pour nous y assister.

Quels sont vos besoins actuels ?

SB : Dans l’idéal, et pour venir en renfort de Frédéric, nous aurions besoin d’un développeur « full-stack » PHP à plein temps, et d’un DevOps pour pouvoir améliorer l’architecture de tout ça (qui n’est plus au goût des stacks technologiques modernes, et sent un peu trop l’année 2010 plutôt que 2022, ce qui rend la maintenance compliquée alors que le trafic web généré suppose de la perf’ et des optimisations à tous les niveaux).
Ce n’était pas immédiatement possible au vu des revenus de l’association, qui atteignaient environ 60.000€ en 2021, dont 15.000€ sont dépensés en frais de serveurs dédiés chez OVH (passer au tout-cloud coûte trop cher, en temps comme en argent,… mais gérer des serveurs aussi !).

FA : On développe aussi deux applis Android et iOS, qui reprennent les contenus du site dans un format simplifié, et surtout permettent de recevoir des alertes « push » selon les conditions météo, et d’afficher des widgets. Elles sont dans le même esprit que le site (pas de pubs, le moins de contenus tiers possibles), cependant ce sont des applis que l’on a sous-traité à un freelance, ce qui finit par coûter très cher. Nous réfléchissons à quelle direction donner à celles-ci, surtout au vu de l’essor de la version « responsive » de notre site.
Nous aimerions commencer à donner une direction européenne à notre plateforme, et la mettre à disposition des communautés d’autres pays. Il y a un gros travail de traduction, mais surtout de travaux techniques pour rendre les pages de notre site « traduisibles » dans différentes langues.

Vous ouvrez cette année un premier poste salarié, quelle a été votre démarche ?

SB : Dès lors, nous avions surtout un besoin intermédiaire, qui vise à faire progresser nos revenus. Pour cela, notre première marche sur l’escalier de la réussite, c’est de recruter un·e chargé·e de développement associatif, chargé d’épauler les bénévoles du Conseil d’Administration à trouver des fonds : mécènes et subventionneurs publics. Les sujets climat sont au cœur du débat public aujourd’hui, l’engagement citoyen aussi (on l’a vu avec CovidTracker !), nous y participons depuis 20 ans, mais sans savoir nous « vendre ».

FA : Cette première marche, nous l’avons franchie grâce à Gandi, dans le cadre de son programme « Gandi Soutient », qui nous a mis en relation avec vous, Framasoft. Vous êtes gentiment intervenus auprès de nos membres de Conseil d’Administration, et vous nous avez rassurés sur la capacité d’une petite association à se confronter aux monopoles commerciaux, en gardant ses valeurs fondatrices. Sans votre intervention, nous n’aurions probablement pas franchi le pas, du moins pas aussi vite !

Intervention de Framasoft pendant une réunion du CA de Infoclimat

 

SB : Cela va nous permettre de faire souffler une partie de nos bénévoles. Même si cela nous fait peur, car c’est une étape que nous n’osions pas franchir pour préserver nos valeurs, c’est avec une certaine fierté que nous pouvons aujourd’hui dire : « nous sommes une asso d’intérêt général, nous proposons un emploi au bénéfice de tous, et qui prend sa part dans la mobilisation contre le changement climatique, en en donnant des clés de compréhension aux citoyens ».

FA : La seconde étape, c’est recruter un⋅e dév’ web full-stack PHP/JS, quelqu’un qui n’aurait pas été impressionné par ma liste de technos évoquée précédemment ! Comme nous avons eu un soutien particulièrement fort de notre communauté en ce début d’année, et que notre trésorerie le permet, nous avons accéléré le mouvement, et la fiche de poste est d’ores-et-déjà disponible, pour un recrutement envisagé à l’été 2022.

Comment pouvons-nous soutenir Infoclimat, même sans s’y connaître en stations météo ?

FA : Pour celles et ceux qui en ont les moyens, ils peuvent nous soutenir financièrement : c’est le nerf de la guerre. Quelques euros sont déjà un beau geste ; et pour les entreprises qui utilisent quotidiennement nos données (on vous voit !), un soutien plus important permet à nos outils de continuer à exister. C’est par exemple le cas d’un de nos mécènes, la Compagnie Nationale du Rhône, qui produit de l’électricité hydroélectrique et éolienne, et est donc légitimement intéressée de soutenir une asso qui contribue au développement des données météo !
Pour cela, nous avons un dossier tout prêt pour expliquer le détail de nos actions auprès des décideurs. Pour aller plus loin, une seule adresse : association@infoclimat.fr

Et pour ceux qui veulent aussi s’investir, nous avons une page spécifique qui détaille le type de tâches bénévoles réalisables : https://www.infoclimat.fr/contribuer.

Ce n’est pas exhaustif, il y a bien d’autres moyens de nous épauler bénévolement, pour celles et ceux qui sont prêts à mettre les mains dans le cambouis : des webdesigners, développeurs aguerris, experts du traitement de données géographique, « datavizualisateurs », ou même des gens qui veulent faire de l’IA sur des séries de données pour en trouver les erreurs et biais : il y a d’infinies possibilités ! Je ne vous cacherai pas que le ticket d’entrée est assez élevé du point de vue de la technique, cela dit…

SB : Pour les autres, il reste l’énorme possibilité de participer au site en reportant des observations via le web ou l’appli mobile (une paire d’yeux suffit!) ainsi que des photos, ou… simplement nous faire connaître ! Une fois comprise la différence entre Infoclimat et tous les sites météo, dans le mode de fonctionnement et l’exploitation commerciale ou non des données, on comprend vite que notre association produit vraiment de la valeur au service des citoyens, sans simplement profiter des données des autres, sans apporter sa pierre à l’édifice, comme le font nonchalamment d’autres initiatives. Par ailleurs, nous avions pour projet d’avoir une page sur Wikipédia, refusée par manque de notoriété 🙁 . Idem pour la demande de certification du compte Twitter de l’Association, qui pourtant relaie de l’information vérifiée et montre son utilité lors des événements météo dangereux ou inhabituels, comme lors de l’éruption tout récente du volcan Hunga Tonga-Hunga Ha’apai sur les Iles Tonga qui a été détectée 15h plus tard et 17.000 km plus loin par nos stations météo lors du passage de l’onde de choc sur la métropole!

Capture écran : tweets postés avec le passage de l'onde de choc après l'erruption du volcan des Iles Tonga sur la métropole

FA : Infoclimat, c’est un peu l’OpenFoodFacts du Yuka, l’OpenStreetMap du GoogleMaps, le PeerTube du YouTube, le Wikipédia de l’Encarta (pour les plus vieux)… et surtout une formidable communauté, que l’on en profite pour remercier ici !

On vous laisse maintenant le mot de la fin !

SB : Bien sûr, on aimerait remercier tous ceux qui ont permis à cette aventure de progresser : tous les bénévoles qui ont œuvré depuis 20 ans, tous les adhérent⋅e⋅s qui ont apporté leur pierre, nos mécènes et donateurs, ainsi que les passionnés qui alimentent le site et nous soutiennent depuis toutes ces années!

FA : Le soutien de Gandi et Framasoft a aussi été un déclencheur, et j’espère que cela pourra continuer à être fructueux, au service d’un monde meilleur et désintéressé. Des initiatives comme la notre montrent qu’être une asso, ça permet de produire autant voire plus de valeur que bien des start-up ou qu’un gros groupe qu’on voit passer dans le paysage météo. Et pourtant, nous sommes souvent bien moins soutenus, ou compris.

 

Resources à consulter :




PENSA, un projet universitaire européen autour de la citoyenneté numérique

En février 2020, nous avons été contacté par Marco Cappellini, d’Aix-Marseille Université, qui nous proposait de participer à un projet européen – qui n’avait, à l’époque, pas encore de nom – sur la thématique de la citoyenneté numérique dans une perspective plurilingue. Intriguées, nous avons voulu en savoir plus et, après un temps d’échanges, nous avons convenu que Framasoft serait l’un des partenaires associés de ce projet, spécifiquement sur la production de séquences de formations. Et puis, une pandémie mondiale est passée par là ! Ce n’est donc qu’en février 2021 que le projet PENSA (c’est son petit nom) a eu confirmation de son financement et que nous avons pu préciser notre participation : nous animerons une session de formation sur les logiciels libres dans l’enseignement en juin 2022. Maintenant que le projet est lancé, il était temps qu’on vous en parle. Et pour cela, nous avons proposé aux personnes qui coordonnent ce projet de répondre à une petite interview.

logo projet PENSA

Bonjour Elisabeth et Marco ! Pouvez-vous vous présenter ?

Bonjour, je suis Elisabeth Sanchez, Ingénieure d’études au Centre de Formation et d’Autoformation en Langues (CFAL) à Aix Marseille Université. Je suis en charge de l’animation et de l’ingénierie du projet PENSA.
Bonjour, je suis Marco Cappellini, enseignant chercheur à Aix Marseille Université et coordonnateur du projet PENSA.

Vous faites tous les deux partie de l’équipe de coordination du projet PENSA. Vous pouvez nous expliquer de quoi il s’agit ?

Le projet pour une Professionnalisation des Enseignants utilisant le Numérique pour un Soutien à l’Autonomie et à la citoyenneté (PENSA), soutenu par le programme Erasmus+ de la Commission européenne, aborde deux questions d’actualité dans l’enseignement supérieur et la société.

La première est le besoin de formation et d’infrastructure pour dispenser un enseignement mixte, distant et/ou co-modal (c’est-à-dire un enseignement en classe diffusé simultanément à des étudiants en ligne) qui s’est fait à la suite de la pandémie. Pendant les lockdowns nationaux et pour dispenser un enseignement co-modal, les enseignants se sont souvent tournés vers les plateformes en ligne classiques telles que Zoom sans être conscients du modèle économique de ces plateformes en termes de traitement des données personnelles.

La deuxième question est la nécessité d’éduquer les jeunes aux implications de l’utilisation des sites de réseaux sociaux (Facebook, YouTube, etc.) sur les plans psychologique, sociologique, économique et social. En effet, le déploiement de ces plateformes s’est accompagné de discours d’émancipation, les utilisateurs ayant pu exprimer et échanger leurs idées en ligne, générant ainsi davantage de dialogue public. Parfois, des dérives extrêmes ont démontré la fragilité du système d’où la nécessité de sensibiliser les étudiants aux logiques inhérentes à ces plateformes.

Le projet PENSA aborde ces questions avec une approche globale d’ouverture, à la fois dans le sens de l’éducation ouverte et des plateformes open source. Le cœur du projet est constitué de 30 enseignants et formateurs d’enseignants dans sept universités, la plupart faisant partie de l’Université européenne CIVIS, une association académique et une entreprise.

Au cours du projet, une centaine d’enseignants seront formés à l’intégration de l’enseignement mixte et co-modal dans leurs classes, avec l’intégration de la télécollaboration et de l’échange virtuel sur des sujets liés à la citoyenneté numérique. Grâce à ces actions, PENSA permettra à 400 élèves de toute l’Europe de développer leurs compétences numériques, leurs compétences plurilingues, leurs capacités de collaboration et leur autonomie d’apprentissage.

Pouvez-vous nous préciser comment les étudiant⋅es travaillent en collaboration ?
Les étudiants vont travailler en classe avec leurs enseignants et en ligne en petits groupes avec leurs camarades d’une université partenaire. Les échanges en ligne se déroulent dans la plupart des cas en trois phases. La première est une phase de prise de contact pour briser la glace. Les étudiants peuvent se présenter et comparer leurs environnements, d’études et personnels par exemple. Dans la deuxième phase, les étudiants travaillent pour analyser ensemble des « textes parallèles ». De manière générale, ces textes peuvent être des remakes de films, par exemple un groupe franco-italien comparant Bienvenue chez les Ch’tis et Benvenuti al Sud. Dans le cadre du projet PENSA, il s’agira plus spécifiquement par exemple de législations pour le déploiement de la reconnaissance faciale dans les pays respectifs. Cette deuxième phase se veut une entrée dans l’interculturel. Dans la troisième phase, les étudiants collaborent pour réaliser une production commune, un article de blog ou un poster sur une thématique en lien avec le projet, par exemple la gestion des données sur un site de réseautage social. C’est dans cette phase qu’il vont apprendre à développer leur communication et la gestion de la diversité dans une équipe, pour aller encore davantage dans l’interculturel.

capture plateforme PENSA

Comment vous est venue l’idée de travailler sur ces thématiques ?
Marco : Personnellement, de deux choses. Tout d’abord, ce sont plusieurs lectures qui ont éclairé chez moi les aspects problématiques de certains outils et plateformes numériques. Je pense aux écrits de Bernard Harcourt et plus spécifiquement son essai La Société d’exposition : désir et désobéissance à l’ère numérique, à ceux de Frank Pasquale sur l’opacité du fonctionnement des entreprises qui dominent sur Internet, ou encore les écrits sur l’autodéfense numérique du collectif italien Ippolita, également partenaire associé de PENSA.

La deuxième dynamique a été un ensemble de discussions avec des collègues et des amis, qui ont montré d’une part qu’il y avait une connaissance vague des dynamiques sur Internet et une connaissance presque nulle des outils alternatifs à disposition. À partir de là, avec plusieurs collègues on s’est réunis en février 2019 et on a travaillé à une proposition pour les appels à projet de la Commission Européenne. Puis est venue la pandémie, qui n’a fait que renforcer le besoin de développer une culture numérique chez les étudiants, mais aussi chez beaucoup de collègues.

PENSA est un projet ERASMUS+. Pouvez-vous nous en dire davantage sur ce programme européen ?
Erasmus+ est un programme connu surtout pour ses actions liées à la mobilité. Moins connues, mais tout aussi intéressantes, sont les actions liées à la coopération, tant au niveau scolaire qu’universitaire. PENSA est un projet qui s’insère dans les actions clés, pour des partenariats stratégiques dans l’enseignement supérieur. L’idée principale est de réunir plusieurs partenaires aux expertises complémentaires pour répondre à un ou plusieurs défis sociétaux.

Dans PENSA, le noyau de l’équipe est composé d’enseignants de 7 universités, de collègues d’une entreprise spécialisée dans les open coursware et d’une association internationale. Dans une formation qui s’est tenue en juin 2021, chaque membre de l’équipe a apporté quelque chose aux autres. Par exemple, j’ai pu apprendre davantage sur les outils libres spécifiques à la formation et à mieux intégrer des échanges en ligne entre mes étudiants et des étudiants ailleurs. A partir de cette collaboration, dans chacune des universités on formera d’autres collègues pour diffuser des idées et des outils pour améliorer la pédagogie universitaire.

Puisque PENSA est un projet européen, quelles sont les langues utilisées ?
Il y a 7 langues présentes dans le projet : allemand, anglais, catalan, espagnol, français, italien, roumain. Dans les échanges entre étudiants, ils utilisent soit une langue comme langue véhiculaire (typiquement l’anglais), soit les deux langues des pays concernés (par exemple allemand et français pour un échange entre étudiants à Tübingen et Aix en Provence). Pour les autres initiatives du projet, comme la formation de formateurs, on a utilisé l’anglais dans un premier temps, les langues locales ensuite.

Le plus intéressant se passe au niveau de la gestion du projet : le comité de pilotage communique en intercompréhension des langues romanes. Par les similarités entre langues latines, et avec des stratégies de communication, chacun parle dans une langue romane et les autres comprennent et répondent en d’autres langues. Dans ces réunions, on parle donc français, italien et espagnol principalement, avec des touches en catalan et roumain. Au début, ça peut être un peu déstabilisant et surtout fatiguant, mais avec la pratique on s’y fait assez vite. C’est une manière pour nous de faire vivre le plurilinguisme européen, au-delà des séparations entre langues que l’on peut avoir apprises.

photo jeunes européens
Crédit : Université Aix-Marseille

Quelle place accordez-vous au logiciel libre dans ce projet ?
Une place assez importante. D’abord, on vise à faire comprendre la différence entre « gratuit » et « libre », qui n’est pas évidente pour beaucoup de monde. Ensuite, dans la formation de formateurs on fait connaître des alternatives libres, parfois même institutionnelles, pour différents outils. Par exemple BigBlueButton comme une alternative à Zoom ou Skype. D’ailleurs, ces formations sont très intéressantes pour découvrir de nouveaux outils, même pour les personnes le plus expérimentées de l’équipe.

On prévoit aussi de développer et publier des extensions à des outils libres tels que la plateforme Moodle pour les cours hybrides ou à distance. Chez les étudiants, les formations que nous sommes en train de mettre en place visent aussi à les rendre plus conscients des enjeux de l’utilisation de plateformes gratuites grand public, par exemple sur comment elles sont conçues pour capter l’attention et extraire des données, les positionnant en tant que consommateurs. Nous espérons que cette prise de conscience contribuera à des changements dans leurs usages numériques, particulièrement par rapport aux plateformes de réseautage social.

Le côté « open » du projet se fait aussi au niveau des productions de matériel pédagogique, lequel sera mis en ligne sur les sites de la Commission Européenne et du projet.

Donc, le matériel pédagogique sera diffusé sous licence libre ? Si oui, laquelle ?
Oui, il sera diffusé en libre accès. Pour la ou les licences utilisées, ce n’est pas encore défini : ce sera discuté et décidé lors du prochain comité de pilotage.

Dernière question, traditionnelle : y a-t-il une question que l’on ne vous a pas posée ou un élément que vous souhaiteriez ajouter ?
On a probablement fait le tour. Merci bien pour cette occasion de parler de PENSA. Pour la suite et pour suivre l’évolution du projet et profiter des productions, ce sera sur le site https://pensa.univ-amu.fr/, dans la langue de votre choix 🙂

 




Electronic Tales

Nous avons interviewé l’équipe d’Electronic Tales après avoir découvert leur approche accueillant « les développeurs·euses juniors qui n’ont pas suivi un cursus d’ingénieur, ne démontent pas des ordinateurs tous les week-ends et n’ont pas commencé à coder à 5 ans » sur une plateforme « fabriquée avec amour par des devs féministes, queers, inclusifs·ves et autres personnes fucking bienveillant·e·s »

(En plus iels parlent de beurre demi-sel donc forcément, on s’est dit qu’on avait des points communs !)

– Bonjour les histoires électroniques, pouvez-vous vous présenter pour expliquer comment est née votre initiative ?

Bonjour ! À l’origine du projet, on est quatre :

– Officier Azarov (pronoms il/elle) : je suis dev depuis 2017. Dès mes premiers mois dans ce milieu professionnel, j’ai senti deux courants contraires – d’un côté, une vraie soif d’apprendre toujours plus dans le domaine de la programmation, et, de l’autre, la découverte d’un milieu extrêmement dominé par des hommes blancs hétéro cisgenre de 25-35 ans, et une culture beaucoup moins inclusive que ce à quoi je m’attendais. J’ai ensuite travaillé comme formatrice dans un bootcamp, et là encore j’ai été étonnée de voir la vitesse à laquelle des mécanismes d’exclusion se mettaient en place chez les étudiant·e·s. Du coup j’ai eu envie de changer les choses. À terme, le but d’Electronic Tales est d’aider les minorités de la tech (femmes, queers, personnes racisées, personnes handicapées, seniors..), souvent issues de formations courtes ou autodidactes, à combler le gap technique et culturel avec les développeurs·euses ayant suivi des parcours classiques (école d’ingénieur). Au-delà de ce public, beaucoup de juniors en général se reconnaissent dans nos valeurs – et aussi des seniors qui veulent que leur domaine change !

Partenko (pronom il/elle) : je ne viens pas du milieu du dev mais de celui de la tech dite « hardware », et encore avant, j’étais prof des écoles. J’avais un truc en tête au moment de changer de métier : je voulais réparer des trucs et interagir avec des machines. C’est comme ça que je suis tombée dans les entrailles secrètes des ordinateurs et que j’ai commencé à m’intéresser à l’histoire de l’informatique, côté Hardware de la force. Regarder à l’intérieur des ordinateurs me permet de mieux comprendre comment ils fonctionnent. Mon but est de partager ces connaissances avec les personnes qui utilisent ces machines au quotidien afin de les aider à acquérir une culture hardware, ce qui pour nous fait partie intégrante de ce que nous avons appelé la « Computer Culture ». Comme le dit Officier Azarov, le gap technique entre personnes issues d’école d’ingénieur et étudiant·e·s issues de formation courte créé trop souvent des situations de détresse professionnelle pour les juniors qui ne sont pas né·e·s avec un ordinateur dans les mains et/ou un papa ingénieur. Je veux aider les devs juniors à se sentir mieux professionnellement dans un milieu où l’on juge très vite le manque de connaissances comme un manque de compétences.

– Monday Hazard (pronom elle) : Je suis une dev nouvellement arrivée dans le métier suite à une reconversion vaguement improbable entamée un peu avant le confinement (si, si, je vous jure, c’était en 2019). Je suis fascinée par les enjeux socio-culturels qui se nouent dans la tech et convaincue que la question de l’inclusion y est cruciale. C’est toujours la joie de partager avec l’immense communauté de personnes qui vivent les mêmes questionnements et qui les gardent frais dans leur façon d’apprendre, de travailler et de partager les savoirs 🌈

– Le Crampon (pronom il) : Né en 1993 suite à un accident de VTT, je suis un développeur détenteur d’un DUT informatique mais avec un sérieux syndrome de l’imposteur. Actuellement en reconversion en tant que développeur jeux-vidéo en alternance, je tente de combattre ma Nemesis, à savoir la culture des « Petit.e.s Génies du Code qui sont capables de coder un compilateur dès l’âge de 6 ans », qui a tendance à me faire me sentir peu légitime. Et je suis prêt à parier que je ne suis pas le.la seul.e.

– Vous êtes en train d’élaborer un cursus de formation pour celleux qui ne sont pas tombés dans la marmite numérique dès le plus jeune âge avec des séquences qui démultiplient les supports d’apprentissage, avec l’idée de rendre la culture geek accessible au plus grand nombre. C’est une super et noble ambition et on vous souhaite de monter en puissance, mais qu’est-ce qui manque aux autres propositions de formation déjà existantes que vous apportez avec E.Tales ?

Les formations courtes qui ont fleuri ces dernières années favorisent l’entrée de nouveaux profils dans la Tech. Certaines ciblent même très bien les groupes sous-représentés dans le dev (Simplon, Ada, DesCodeuses…). Toutes ces initiatives sont formidables, mais elles ne sont que le début de la solution. La question qui nous hante, c’est : une fois que ces minorités ont accédé à un poste de dev, comment les aider à rester dans ce milieu (par exemple, les femmes ont significativement plus de risques d’abandonner leur carrière technique que leurs homologues masculins) et à gravir les échelons jusqu’à des positions de leadership ?

À côté des formations courtes, il existe aussi quelques passerelles vers des diplômes universitaires (licences, master) ou des cursus d’ingénieur. Mais ces formations sont pour la plupart onéreuses, nécessitent d’étudier à temps plein (et donc de quitter son travail) ou manquent cruellement d’attractivité en termes de pédagogie.
L’ambition d’Electronic Tales est de proposer des contenus d’aussi bon niveau que ces formations spécialisées, mais avec en plus un soin particulier apporté à l’expérience d’apprentissage et un plus grand lien avec les technologies modernes.
Pour l’instant, nous sommes en train de constituer une communauté et des contenus participatifs sur notre plateforme, mais nous visons à terme la création d’un cursus d’excellence structuré et reconnu dans le milieu de la Tech.

– Vous souhaitez construire un « safe space » pour les personnes qui participeront. Pouvez-vous expliquer pourquoi cela vous semble nécessaire ?

Le monde du développement, en entreprise mais aussi dans la sphère des « passionné·e·s », peut être très difficile à vivre lorsqu’on débute. Cette difficulté est encore augmentée lorsqu’on est la seule femme et/ou la seule personne queer/racisée/handicapée/de plus de 40 ans/etc. Et souvent, quand on fait partie d’une minorité et qu’on essaie de parler de ses problèmes, on se heurte à une forme d’incompréhension, voire d’hostilité, de la part de ses collègues.
Notre idée, c’est d’annoncer la couleur tout de suite : que ce soit sur la plateforme ou sur le Slack, les gens qui viennent savent qu’ils entrent dans un espace féministe queer inclusif. Si cela ne leur plaît pas, ils peuvent aller dans d’autres communautés 🙂 On aide aussi les membres de la communauté à communiquer entre eux·elles de façon bienveillante et inclusive – ce n’est pas toujours évident, par exemple quand on veut faire des blagues de dev (promis, nous aussi on les adore) ou qu’on a une question très pointue ! Mais on essaie d’inventer une nouvelle « grammaire » de communication technique à inventer pour inclure davantage.

– Vous écrivez : « notre team est en train de concocter une plateforme de learning social. »
euh c’est quoi au juste, le learning social ?

Le learning social, c’est le fait de casser les dynamiques classiques de sachant·e/apprenant·e telles qu’on a pu en vivre à l’école. On veut encourager les juniors à créer des contenus pour expliquer des choses techniques, pour les aider à prendre confiance en leurs capacités et à déconstruire l’idée qu’il faudrait avoir 10 ans d’expérience pour commencer à partager ses connaissances. (Par ailleurs, un.e junior est parfois plus à même d’expliquer une chose technique à d’autres juniors qu’une personne qui a oublié combien les choses ne coulent pas de sens quand on débute) Donc, concrètement, l’équipe d’Electronic Tales crée bien sûr des contenus pour la plateforme, mais tout le monde peut participer.

– Votre proposition s’adresse essentiellement à des devs juniors, est-ce qu’il y a une limite d’âge ?

Non ! Tout le monde est le·la bienvenu·e ! Et il y a même des devs seniors dans notre communauté – des gens formidables et très motivés pour aider les juniors 💪

– Est-ce qu’il y a un prérequis, un niveau minimum de connaissances ou de pratiques pour se joindre à vous, participer et bénéficier de cette initiative ?

Tout dépend du type de contenus. Dans notre section « Modern World », qui parle surtout de programmation, nos contenus s’adressent plutôt à des personnes qui codent déjà un peu – même si on fait attention à toujours s’appuyer sur le minimum de pré-requis possibles.
Pour les contenus des sections « Imaginarium » (qui s’intéresse aux aspects culturels de la Tech, comme les comics, la science fiction, pourquoi les hackers tapent aussi vite sur leurs claviers dans les films, et ainsi de suite) et « Ancient World » (qui parlera plutôt de hardware et de réseau), il n’y a pas de pré-requis à avoir.

– Est-ce qu’il vous arrive d’organiser des moments de rencontre pour les personnes intéressées par le projet ?

On a deux grands événements cet automne :

  • Les soirées CS50 and chill, où on se retrouve en ligne pour regarder ensemble la célèbre intro à la computer science de Harvard. On communique par chat, pour échapper à la fatigue de la visio. C’est fabuleux et très apprécié par celles·ceux qui nous rejoignent 🙂 Ça a lieu deux fois par mois.
  • On va commencer un cycle « Hacke les entretiens techniques » en novembre. On va notamment avoir un dev senior d’une GAFA qui fera passer des entretiens fictifs. On va aussi beaucoup déconstruire cet exercice, aussi bien techniquement (pour aider les gens à se préparer) que mentalement (pour aider les gens à relativiser).

– Votre travail pour cette initiative est bénévole ? Comment couvrez-vous les frais de la plateforme ? Envisagez-vous un financement participatif, autre chose ? Les personnes inscrites devront-elles contribuer financièrement ?

Oui, toute l’équipe est bénévole. Pour le moment on finance les frais d’hébergement de notre poche (heureusement, ce n’est pas trop onéreux). Mais comme on espère qu’Electronic Tales va prendre de l’ampleur, notamment grâce à notre projet de cursus d’excellence pour les minorités de la Tech, il est certain qu’il faudra qu’on cherche (et qu’on trouve) des financements – ne serait-ce que pour que l’équipe puisse dégager du temps de travail pour le projet. On a déjà une petite idée pour ça : développer une activité de consulting pour accompagner les entreprises qui souhaiteraient accueillir des juniors dans leurs équipes.
Ce qui est sûr, en tout cas, c’est qu’on tient coûte que coûte à ce que le projet reste open-source et gratuit.

– Fermez les yeux, respirez lentement, et Imaginez que tout se passe hyper bien et que la plateforme rencontre un grand succès (on vous le souhaite !). Selon vous, qu’est-ce qui aura changé à l’issue de cette expérience ? Et envisagez-vous d’autres actions par la suite, pour aller plus loin ?
Concrètement, si on réussit à créer un cursus qui s’adresse plus particulièrement aux groupes sous représentés mais qui est tellement qualitatif qu’il est reconnu sur le marché du travail, alors on aura réussi à changer quelque chose dans le monde de la tech. Nous faisons l’hypothèse que réduire le gap technique et culturel favorisera le sentiment de légitimité des personnes appartenant aux groupes sous-représentés dans la tech. Si tout se passe pour le mieux, celles-ci poursuivront leurs carrières techniques avec plus de succès, devenant in fine les seniors et des décideurs·euses divers·es dont la tech manque cruellement aujourd’hui. Et nous, si on y arrive, on sera épuisé·e·s mais ravi·e·s, comme disait Aznavour (💗).

Pour aller plus loin :




Contre les GAFAM du légume

Nous avons interrogé Éric Marchand, de la coopérative Jardin’enVie, qui produit et conserve des variétés de semences paysannes.

L’univers impitoyable des semenciers n’a rien à envier à celui des GAFAM, nous explique-t-il, dans un rapprochement saisissant entre les militantismes libriste et agricole.

 

Salut Éric. Peux-tu nous dire qui tu es ? J’ai vu que tu étais un ancien informaticien ?

« Informaticien », j’en sais rien, je ne sais pas comment on appelait ça à l’époque, mais on va dire ça. Oui, effectivement j’ai suivi une formation en informatique et j’ai participé à créer des entreprises d’informatique dans les années 90, en logiciels libres.

 

C’était plutôt nouveau, à l’époque, non ?

Oui, puisque Linux, sa date de naissance, entre guillemets, c’est 1991, et on a démarré en 1993 avec Linux.

L’une de ces entreprises proposait de l’accès à Internet, ce qui n’existait pas en France. FAI et développement de logiciels libres.

 

Vous étiez à la pointe, alors ?

On n’était pas très nombreux à faire ça. Après a démarré feu Mygale et toute la folie Internet, toutes les start-ups et tous les mouvements autour de l’Internet non marchand et solidaire qui ont fini par donner ceux qu’on connaît aujourd’hui, Gitoyen et autres.

 

Tu es un militant de la première heure ou tu es tombé là-dedans par hasard ?

Non, nous avons fait ça sciemment, pour s’opposer à la logique du brevet et de l’appropriation des idées, mais aussi parce que nous avions vu ce que donnait l’informatique par ailleurs, dans des entreprises plus traditionnelles avec une course à la puissance complètement aveugle.

 

J’imagine que c’était plutôt en ville, en tout cas pas du tout dans le milieu agricole ? Cependant j’ai cru comprendre que c’était la ferme de tes parents, ou de tes grands-parents, que tu as reprise là, avec Jardin’enVie ?

Oui, en fait je n’étais pas dans l’agricole d’un point de vue professionnel, mais mes origines familiales, des deux côtés, ont toujours gardé un lien fort avec les cultures sans chimie. Une implication assez forte, puisque l’un de mes grands-pères a participé à la création des croqueurs de pommes, la première association ayant contribué à préserver les variétés fruitières qui étaient menacées à l’époque par l’industrialisation de l’alimentation.

 

Ça faisait partie de ton histoire personnelle.

Oui. C’était pas moi, hein.

 

Bien sûr, mais il y avait un terreau, si tu me permets ce jeu de mots. Ça explique pas mal de choses, de voir l’origine des gens. Et du coup, Jardin’enVie, ça a démarré quand ? D’ailleurs, je dis Jar-di-nen-vie, mais comment tu le prononces ?

Il y a plusieurs façons de le prononcer. D’autres le disent autrement. C’est un peu volontaire que le nom soit un peu protéiforme. Ça n’a pas beaucoup d’importance.

 

Ça a démarré… Eh bien la date est un peu floue, en fait. L’association a été créée en 2007, mais l’idée a germé en 2001, lorsqu’on a été confronté à l’arrivée assez massive des OGM dans la Drôme. Des personnes de tous milieux sociaux et professionnels se sont retrouvées. Il y avait une convergence de différents mouvements, soit anti- soit alter-mondialisation, dont ceux qui étaient issus du logiciel libre, mais aussi d’autres. Notamment c’est la naissance d’ATTAC, sous forme de mouvement d’éducation populaire, ce qu’ATTAC n’est plus. Cette effervescence d’éducation populaire qui a aujourd’hui disparu et qui était à l’époque de fait mise en œuvre dans les rencontres, les forums mondiaux. C’est elle qui a permis à des personnes de se rencontrer, des personnes qui n’étaient pas forcément concernées par le logiciel libre, la question climatique, le problème de la finance… Tout le monde se retrouvait au même endroit au même moment et c’est comme ça que des choses un peu improbables sont nées. En l’occurrence, la question des OGM. Tout le monde arrivait avec sa préoccupation, mais aussi son bout de solution.
Mon approche était économique, autour de la logique du brevet d’un côté, du logiciel libre de l’autre. Ce qu’on avait réussi à faire sur le libre, il devait être possible de le réitérer pour les semences puisque, avec les OGM en plus du certificat d’obtention végétale, arrivait le brevet dans le monde du vivant.

 

Tu pensais que le logiciel libre avait réussi ?

J’en étais sûr ! En 1998, on a organisé avec plein de gens les journées à l’Assemblée Nationale. Le point de vue qu’on défendait c’est que le modèle du logiciel libre avait gagné la partie, mais que le mouvement du Libre l’avait perdue.

C’était le mouvement qu’on appelait INMS, de mémoire les initiales utilisées pour désigner le mouvement militant, Internet non marchand et solidaire. On répondait « tout ce qui est gratuit, c’est là où vous êtes le produit », y compris quand on est militant.

C’est instruits par tout ça que nous avons abordé la réflexion sur les semences. On pouvait voir par avance ce qu’allait devenir Internet, ce qu’il se passerait sur le logiciel libre, puisque nous avions déjà vu des multinationales se construire sur la récupération des semences qui étaient par essence dans le domaine public. Au début du XXᵉ siècle, il n’y avait pas d’appropriation de la semence. Dans les faits il s’agissait d’un commun.
À partir du moment où on a introduit en Europe le certificat d’obtention végétale et d’autre législations qui ont permis à des entreprises de s’approprier l’avenir ou l’exclusivité commerciale de variétés, on a changé la donne.

 

Les semences sont brevetées pour verrouiller le marché. Est-ce que ça a toujours été l’intention des « gros », ou est-ce que ça s’inscrivait dans une démarche positive à l’origine ? Par exemple améliorer les rendements, protéger le volume des récoltes pour nourrir le plus grand nombre, stabiliser la production, etc.

C’est la lecture qu’on a faite sur le développement des entreprises dans la semence, typiquement ;  à partir du moment où il y a possibilité pour des acteurs de s’approprier un domaine par exclusivité, et par exception à ce que le système dans lequel on est prétend défendre, c’est-à-dire les libertés. Le libéralisme parle de ça. Mais plus on parle de liberté, moins il y en a. Par contre, plus il y a de concentration et plus il y a des normes qui excluent au lieu d’inclure. On passe de la loi à la norme, une norme qui est excluante, et qui crée des zones de marché protégées là où on est censé être dans une concurrence libre et non faussée.

 

On sent que tu as beaucoup réfléchi à la question.

C’est sûr que démarrer Internet au début des années 90, ça fait réfléchir à tout ça.

Pour résumer, les multinationales de la semence, Limagrain, Monsanto, Bayer, se construisaient comme ce qu’on appelle aujourd’hui les GAFAM étaient en train de se construire dans le logiciel libre. L’expérience dans le monde agricole a permis d’anticiper ce qu’allaient devenir les GAFAM, et ce qu’on savait sur le logiciel libre nous a permis d’imaginer des solutions sur les semences. Une réflexion croisée. Le point commun, c’est cette histoire d’appropriation, et de concentration des pouvoirs.

Derrière, il y a des différences, quand même. Le logiciel, on peut le multiplier à l’infini pour un coût proche de zéro ; ce n’est pas le cas de la semence. C’est beaucoup de travail physique, qu’on ne peut pas répéter à l’infini. Cultiver devient de plus en plus dur. Le rapport du GIEC ne permet plus l’ambiguïté. Mais quand on observe le vivant et qu’on essaie de cultiver avec lui, eh bien ça fait vingt ans qu’on peut observer les changements.

 

Vous avez démarré en parlant de sauvegarder des semences paysannes non brevetées, et vous en êtes à restaurer la qualité des sols, planter et récolter des tonnes de plantes, acheter du terrain… C’est une démarche qui déborde de partout, finalement. Fanny nous a dit en préparant l’interview : « Quand on parle des semences paysannes on parle de beaucoup de choses (propriété vs communs, liberté vs brevets, biodiversités, alimentation, vie, vivant, coévolution, …) ».

Le début de Jardin’enVie, ce sont des rencontres improbables de gens qui ne se connaissent pas. Il faut que l’histoire commune se construise. C’est un domaine nouveau pour la plupart des gens, qui viennent de la ville pour l’essentiel et qui n’ont jamais semé une seule graine. Cette grande diversité a permis d’aborder la question des semences par tous ses aspects. Les seuls endroits où on pouvait démarrer et faire des expérimentations au départ étaient les jardins des uns et des autres, et le plus grand était le nôtre, parce qu’on était sur une ancienne ferme où il y avait un peu moins d’un hectare à cultiver. Le tout en zone péri-urbaine ou urbaine. Pas de sol, pas de semence. Faire avec le vivant sur des sols morts, ça ne marche pas. La propriété de la terre, sa qualité et l’avenir des semences, c’est lié. La semence est à la base de la plupart des activités économiques indispensables à la vie humaine : alimentation, soin, énergie, logement, textile… Avec à chaque fois des solutions simples, existantes et faciles à mettre en œuvre s’il y a un minimum de volonté politique pour résoudre tous les défis inédits que l’humanité va devoir affronter dans les prochaines années. Nul besoin d’hypothétiques avancées technologiques ou découvertes scientifiques. C’est une très bonne nouvelle : vivre mieux, conquérir plus d’égalité, de démocratie, de libertés peut permettre de sortir des crises actuelles !

 

Le monde paysan avait suivi cette histoire de semences brevetées sans se poser de question ?

Le monde paysan est écartelé. Pris au piège de la finance, il n’a plus de marge de manœuvre. Sans en être sûr parce que je ne suis pas historien, l’un des points frappants c’est que ça commence à l’après-guerre. Il faut nourrir tout le monde, on sort de deux guerres mondiales et il n’y a plus de bras ; il faut tout reconstruire et il n’y a plus personne pour travailler dans les champs. La mécanisation, la standardisation ont été une solution. Avec les capacités techniques de l’époque, les semences diversifiées étaient un problème. Il fallait des semences qui poussent de la même façon, qui sont mûres toutes en même temps, ça permet d’agrandir les champs et de produire avec peu de bras.

 

D’où la suppression des haies ?

En tout cas c’est une clé de lecture possible. Il y en a sans doutes d’autres. On a quand même des tickets de rationnement en France jusqu’au début des années soixante. Et cela collait avec l’idéologie du moment, qui encore aujourd’hui freine notre capacité à développer une approche sensible du monde vivant. Cf. « Semences, une histoire politique » de Christophe Bonneuil, historien des sciences au CNR et Frédéric Thomas, agriculteur.

 

Il y avait une urgence ?

Au minimum, il fallait retrouver l’autonomie alimentaire. Avec moins de personnes pour travailler, une société qui avait complètement changé, où on ne pouvait plus du tout penser la campagne comme elle existait encore quarante ans auparavant.

 

Et ça, ça a changé ? Aujourd’hui on serait capable de nourrir tout le monde sans des fermes gigantesques ?

Oui. La question n’est même plus celle-là. C’est comment éviter les famines, si on continue avec les habitudes alimentaires et le mode de culture dominants qui vont dans le mur. Ils demandent une consommation de ressources que la planète ne peut pas supporter.

 

Combien êtes-vous aujourd’hui chez Jardin’enVie?

Dix personnes en équivalent-temps plein toute l’année, et des saisonniers au printemps et à l’automne mais on est sur un mode investissement. L’activité ne permet pas encore de rémunérer dix personnes à temps plein. On consomme des capitaux pour préparer l’avenir.

 

Pourquoi avoir choisi un statut d’entreprise ? Est-ce que ça ne crée pas de la contrainte (rentabilité, fisc, administration) que vous n’auriez pas en tant qu’association loi 1901 ?

C’est une des réflexions transversales à l’expérience INMS. Tous ceux qui voulaient rester en association n’ont pas pu développer les idées qu’ils avaient, à de rares exceptions. C’est l’une des limites du mouvement du logiciel libre. Survivre grâce aux dons, c’est bien, mais est-ce que ça permet vraiment de développer une ligne d’objectifs et de l’atteindre ?

Nous, nous sommes en entreprise, mais le but, c’est de grandir, pas de grossir.

On retrouve la différence qu’on a relevée tout à l’heure. On peut à la rigueur se passer de capitaux pour une activité qui n’en demande pas ; à partir du moment où il faut acquérir des terres, les remettre en forme parce qu’elles ont été détruites par une politique de terre brûlée, former des gens parce que plus personne n’apprend ces métiers comme nous les pratiquons, restaurer les semences, c’est quelque chose qui demande énormément de ressources et de temps, bien plus que l’informatique.

Il faut se dire que sur le vivant, c’est une démarche de long terme pour apprendre un métier, développer des savoir-faire. Si on n’est pas en capacité de rémunérer des personnes, de faire grandir quelque chose qui soit viable, de former des gens, jamais les semences paysannes ne seront considérées comme une alternative crédible.

C’est aussi ce qu’on peut dire du logiciel libre, d’une certaine manière. Il a conquis des serveurs, mais il n’a pas conquis le poste de travail, alors que d’un point de vue technologique, rien ne l’empêcherait de le faire. Les smartphones sont à base de Linux, mais leurs OS ne sont pas libres.

 

On commence à voir des smartphones dégooglisés, pourtant. Mais ça reste réservé aux personnes qui sont capables de bidouiller.

Ce qui a permis à Google d’imposer sa version Android, c’est son énorme capacité d’investissement. On en revient à une question de capitaux disponibles.

Dans ces conditions, pour l’utilisateur final qui veut dégoogliser son téléphone, en plus de compétences complexes à acquérir, il faut du temps. Alors que je sais le faire, je n’ai toujours pas pris le temps de virer Android de mon propre smartphone.

 

Quelles sont les différences avec une exploitation agricole bio classique ?

Les semences pour l’essentiel, mais pas que. Le bio fonctionne à 98 % avec des hybrides F1 et maintenant des OGM qui ne disent pas leur nom (ils se cachent derrière le vocable matériel biologique hétérogène, introduit dans le règlement AB qui s’appliquera à compter de 2022). C’est un marqueur important. On est dans le même ordre de grandeur que Linux et les GAFAM au début des années 90.
Nous avons fait un pas de côté sur le modèle socio-économique pour pouvoir faire un pas de côté sur les semences.
Nos statuts nous permettent de gérer les semences mais aussi le foncier tels des communs d’une part, et d’autre part de faire appel à l’épargne populaire pour investir. Les sociétés dites agricoles, elles, n’ont pas la possibilité de faire appel à l’épargne, hors fonds agricole pré-existant.

Du coup on peut construire l’équilibre de la structure financière sur une base beaucoup plus diversifiée.
La semence et l’alimentation sont des choses trop sérieuses pour qu’on passe d’une appropriation à une autre. Les paysans ne sont pas les seuls concernés par cette question-là. L’idée consistait à revenir vers une implication de l’ensemble des parties prenantes, les restaurateurs, les épiciers, les gens qui mangent.
Ce qu’on a constaté sur le terrain, c’est que, pour faire des semences de qualité dans le respect du vivant, nous avons aussi besoin des retours des utilisateurs des récoltes. C’est aussi, pas seulement, mais aussi, en fonction de ces retours-là que nous définissons les critères d’évolution des semences à mettre en œuvre lors de la prochaine production de graines.

 

Vous choisissez les graines que vous faites perdurer, c’est ça ?

On conserve les caractéristiques d’usage d’une variété. Si on a affaire à une tomate rouge foncé, on ne va pas la faire aller vers du rose pâle, et si elle est acidulée on ne va pas modifier son goût. On conserve les critères d’intérêt et d’usage de la plante, mais on la laisse évoluer. On parle de coévolution entre les humains, les terroirs et les plantes. On peut, par l’observation, « dialoguer » avec ces êtres vivants pour accélérer l’adaptation des plantes et des lieux dans lesquels on les cultive aux évolutions de leurs milieux de culture, de plus en plus rapides en raison des conséquences du mode de vie actuel des humains les plus riches.

 

Quel est le mode de gouvernance de l’entreprise ?

On essaie de prendre les décisions en commun, c’est pas évident mais on essaie. Là encore nous nous appuyons sur le logiciel libre pour y parvenir. On utilise divers logiciels pour agiter les idées à plusieurs et prendre les décisions à plusieurs.
On met actuellement à jour nos outils numériques pour permettre de faire un pas encore dans cette direction.

 

Des personnes participent à la vie de l’entreprise sans être sur place, sur l’exploitation ?

Entre 150 et 160 coopérateurs à ce jour, dont le groupe d’origine et d’autres qui sont éloignés géographiquement parlant, mais aussi au niveau des métiers exercés. Nous ne sommes pas toujours disponibles au même moment de la journée.

 

Quelles ont été les pires difficultés que vous avez rencontrées ?

Je ne sais pas quelle était la pire. Peut-être l’amoncellement de spécificités au monde agricole. J’ai été entrepreneur dans différents domaines d’activités, et je n’ai jamais rencontré autant d’obstacles multiples et variés en raison du fait que l’agriculture a été exclue de tous les régimes généraux classiques : protection sociale à part, statuts d’entreprise à part, statut social à part, etc. Tout est très fragmenté, plus qu’ailleurs.
Un monde extrêmement novateur pour sa frange marginale et ultra-conservateur pour sa composante majoritaire. Ultra-majoritaire, en tout cas au niveau de ses organisations professionnelles et syndicales !
Ce que nous essayons de faire, qui remet en question la pratique agricole classique, fait que nous avons contre nous la quasi-totalité des organisations agricoles, la bienveillance de beaucoup d’adhérents de ces structures, mais l’hostilité des entités.
Sans notre choix de faire appel à l’épargne populaire, on ne serait pas près d’atteindre nos objectifs, malgré la pandémie qui nous a beaucoup impactés, et les aléas climatiques, de plus en plus imprévisibles, qui se sont conjugués aux conséquences des fermetures administratives.

 

On est loin du cliché du bobo qui revient à la terre et qui plaque tout pour élever des chèvres !

C’est très étrange, le monde agricole est à la fois hyper fermé et hyper ouvert ; notamment, il va devoir s’ouvrir beaucoup et se transformer radicalement, du fait de sa pyramide des âges. La moitié des agriculteurs actifs va partir à la retraite sous peu. C’est un métier qui a été tellement sinistré que la plupart des enfants d’agriculteurs ont renoncé à s’installer en reprenant l’exploitation familiale comme c’était la tradition auparavant. Il y a donc un creux de génération en plus du « papy-boom » qu’on voit dans d’autres métiers.

 

Est-ce que la pandémie, le télétravail du tertiaire et les confinements y ont changé quelque chose ?

Non. C’est déjà terminé. Il suffit de regarder les statistiques de parts de marché des mastodontes de l’alimentaire. Pendant le premier confinement, les gens ne travaillaient pas ou très peu. Il a permis de ramener les gens vers la campagne, mais pendant les autres confinements le travail a été maintenu. Il y a eu le couvre-feu qui a réduit la possibilité de se déplacer, et les gens ont été se mettre dans un endroit où on peut tout trouver. C’est la grande distribution et les plateformes d’achat numérique qui se sont taillé la part du lion. La grande distribution, qui perdait du chiffre d’affaires, a soudainement augmenté son chiffre d’affaires.

 

Qu’est-ce qui a été le plus surprenant, que vous n’aviez pas du tout anticipé dans cette aventure ?

Ce qu’on a découvert avec les semences. On part avec des a priori, qui sont ceux de tout le monde, des semences présentées comme archaïques y compris par la science, plus du tout adaptées aux enjeux du moment.
On est parti pour chercher une alternative aux OGM et en se demandant si ce qu’on raconte sur eux est bien vrai.
Les hybrides F1 et la législation dont le catalogue officiel faisait qu’une semence non inscrite ne peut pas être vendue à des maraîchers ou des agriculteurs.
On ne s’attendait pas à ce que le bio soit envahi de ces semences verrouillées d’un point de vue technologique et juridique. Qu’elles soient incapables de s’interfacer avec le vivant, en raison de leur mode d’obtention, qui consiste à sélectionner des lignées pures. Que les semences soient sclérosées par cet eugénisme, les OGM n’étant que l’achèvement de cette logique entamée depuis longtemps. Ce qu’on voyait comme une menace était déjà notre réalité quotidienne. C’était déjà ce que nous avions dans nos assiettes ! Nous étions confrontés au parachèvement de cette logique, résultat des choix des citoyens des démocraties actuelles.

L’approche est de récupérer de l’autonomie financière et économique car on s’est aperçu que les semences paysannes tenaient la route face aux semences modernes, que tout ce qui était véhiculé à leur sujet était erroné. À tout point de vue. Elles permettaient de retrouver le goût. Elles sont riches en nutriments, notamment en micronutriments, qui ne pèsent pour rien dans le poids final mais qui sont déterminants dans la qualité alimentaire. Une énorme différence, fois trente, fois quarante en termes de micronutriments, même par rapport à des cultures bio. On ne s’y attendait pas du tout non plus.
En quelques années on a pu apporter des solutions à tous les problèmes de la chaîne alimentaire.
Quantité, qualité, mais aussi stopper l’explosion des intolérances et des allergies alimentaires, et puis retrouver le goût. C’est la présence des micro-nutriments qui donne la diversité des saveurs.
Le sans gluten se développe, c’est une industrie en plein développement, mais ça repose sur le fait que les glutens des variétés modernes sont de mauvaise qualité. Les personnes intolérantes au gluten pourraient se remettre à manger du blé si on repart sur des céréales à haute paille.
J’aurais pu citer des dizaines d’autres exemples. Pratiquement partout où il y a un problème alimentaire, les variétés paysannes arrivent avec une réponse.
On a aussi des réponses par rapport au changement climatique parce qu’on produit de l’humus avec les variétés paysannes (en utilisant les méthodes appropriées, évidemment). Alors que même en bio, d’un point de vue statistique et si on s’en tient aux seuls critères obligatoires du label, on continue à détruire plusieurs kilos d’humus pour chaque kilo de nourriture sorti du champ.

 

Si les semences que vous produisez ne sont pas inscrites aux catalogues officiels, ça signifie que c’est hors-la-loi, ce que vous faites ?

Non. Pas en totalité. Là aussi il y a beaucoup de fausses informations qui ont circulé, en fait la vente de variétés non-inscrites aux catalogues n’a jamais été interdite en France, pour vendre à des particuliers. Pas à ce jour, en tout cas. En revanche il y a des restrictions pour vendre à des professionnels, mais nous sommes en capacité de les contourner, de façon tout à fait légale, notamment en s’inspirant des dispositifs mis en place par les multinationales du monde de la semence, qui sont les premières à contourner les lois qu’elles inspirent. En étudiant ça de façon macro-économique, nous nous sommes rendu compte de ça, et faute de mieux pour le moment, nous nous en servons, mais en mode coopératif.
Nos clients professionnels deviennent des coopérateurs à qui nous ne vendons pas la semence, mais à qui nous achetons du travail à façon. C’est légal. Ce qui nécessite de repenser complètement le modèle économique. Mais de toute façon c’est indispensable pour profiter des caractéristiques des variétés paysannes. L’idéal bien sûr, c’est de retrouver un cadre légal de plein droit pour les variétés paysannes. Gandi disait « l’arbre est dans la graine, comme la fin est dans les moyens ». Il y a donc urgence à récupérer la capacité à faire avec des moyens que nous aurons choisis et construits en fonction de nos objectifs.

 

Du coup tu dois avoir plein de casquettes, juriste, économiste…

Il faut avoir de multiples compétences c’est pour ça qu’on ne fait rien tout seuls, c’est un travail de réseau permanent. C’est à ça que sert le réseau de semences paysannes, par exemple, il permet de financer une équipe de juristes payés pour faire de la veille.

 

Vous utilisez exclusivement des logiciels libres. Est-ce que le Libre fournit tout ce qui est nécessaire pour gérer l’informatique d’une exploitation agricole ?

Oui ! Le problème qu’on a, ce sont les humains. À chaque fois qu’on intègre une personne, il faut la former. C’est pour ça que de temps en temps des logiciels propriétaires sont utilisés à Jardin’enVie. C’est le frein humain : la personne, pour être tout de suite opérationnelle, travaille avec le logiciel qu’elle a appris à utiliser par ailleurs, la plupart du temps à l’école, et qui est la plupart du temps un logiciel propriétaire.

C’est parfois compliqué. Les habitudes sont dures à remettre en question. Il faut souvent des débats tendus et houleux pour que les personnes acceptent une formation et l’idée que chercher une fonctionnalité trois clics plus loin (ou moins loin) que d’habitude, c’est pas très grave. Et même que ça vaut le coup !

On n’a aucun problème avec les complets débutants, on leur met un Linux entre les mains, on n’a pas besoin de leur dire quoi que ce soit, ils apprennent tous seuls. Ce sont les gens qui ont de l’expérience, qui sont déjà performants avec les logiciels de leur métier, qui ont des freins.

 

Vous voulez chasser les subventions, y compris européennes. Est-ce que vous ne craignez pas, ce faisant, de vous faire coincer, d’avoir des comptes à rendre ?

Quand on a des capitaux apportés par des citoyens, ça permet de faire face aux pressions. Ça structure un groupe qui est capable de comprendre les rapports de force et d’y réagir.
C’est aussi parce que ces capitaux privés nous permettent de dire non, même s’ils ne sont pas énormes, parce que c’est une marge de manœuvre supplémentaire, ce que le statut associatif ne permet pas sauf à avoir pu amasser, au fil des années, des réserves.
C’est une autre spécificité du monde agricole. Il n’y a pratiquement aucune entreprise qui parvient à être rentable sans subventions, hormis dans des niches comme la vigne. Dans le monde agricole, la subvention n’est pas l’exception, c’est la règle. Nous, nous n’avons pas de subvention de fonctionnement mais d’investissement. Si nous pouvons compter sur une partie de l’épargne des citoyens pour continuer à investir et changer d’échelle, personne ne pourra nous imposer de changer de cap, ou autre. Par contre, rendre des comptes, oui, mais je trouve ça normal. D’ailleurs on le fait spontanément. Toute personne qui veut voir l’intégralité de nos comptes n’a qu’à le demander. Ça fait partie du fonctionnement pour gérer les semences comme des communs, et du modèle économique que nous essayons de construire. Ce n’est pas la semence en tant que telle qui est importante, mais la possibilité de la faire circuler, tout comme les idées et les échanges de savoir-faire nécessaire pour la cultiver et la reproduire.

 

Tu me tends la perche pour la question qui pique : si c’est mal ce que font les labos en brevetant leur semence pour en contrôler la vente, pourquoi votre site est sous licence CC NC ND ? 😉 Pourquoi vous n’ouvrez pas plus l’accès à la diffusion de vos travaux ?

C’est le choix qu’on a fait pour notre site Internet, qui est notre identité. C’est nous qui la déterminons.

Par contre les documents de travail, dans lesquels il y a justement nos savoir-faire, sont complètement libres, il n’y a carrément pas de licence2
. La plupart des personnes avec qui on coopère, notamment le réseau Semences Paysannes, diffuse sans mettre de licence. C’est la reconnaissance par les pairs, tous ceux qui sont passionnés par la variété paysanne et ce qu’elle implique au niveau socio-économique, qui fait qu’il y a transmission, ou non, de l’information.
Mais c’est une question en chantier, qui fait et mérite débat, en particulier pour les données que pour le moment nous ne transmettons pas sans réciprocité.

Est-ce que vous aviez mesuré l’ampleur de la tâche, ou vous vous êtes lancé·e·s en mode YOLO ?

On savait que ce serait énormément de boulot, notamment parce que j’avais connu le monde agricole étant petit. On n’avait pas mesuré, par contre, toutes les réactions que ça allait provoquer, à la fois de rejet et d’adhésion. Encore plus que dans le logiciel libre, il y a une adhésion populaire qui est impressionnante. Encore plus forte. Notre problème, ce n’est pas de trouver des clients, c’est d’arriver à produire pour satisfaire la demande.

 

Évidemment, le logiciel peut être dupliqué pour plein de « clients ».  Les poireaux, quand il n’y en a plus…

C’est ça ! Quand il y a un bug dans la culture, on refait l’année prochaine, on ne code pas un correctif dans la nuit. C’est la grosse différence entre la semence et le logiciel.

 

Est-ce que vous avez atteint une certaine forme d’autonomie, ou est-ce qu’au contraire vous avez besoin d’aide ? Sous quelle forme ?

On n’a pas atteint l’autonomie, on est encore en phase de constitution du capital nécessaire pour franchir les prochaines étapes, et aussi de continuer à rassembler des savoir-faire qui sont en train de disparaître avec les plus anciens. D’autre part les sols aujourd’hui sont tous martyrisés en France. Pour avoir de bons résultats il faut absolument un sol vivant. C’est un obstacle qu’on avait sous-estimé, au départ. Il n’y a aucune aide, aucune subvention mobilisable en France. Il y a des crédits européens pour faire ça. Cependant ils nécessitent un projet réunissant des entreprises privées, des citoyens, mais aussi des élus locaux. Et en France les élus ne sont pas entrés dans cette logique pour aller chercher ces sous. Cet argent n’est pas utilisé en France, alors qu’il l’est dans d’autres pays européens.

Ce sont ces questions-là qui font que nous n’avons pas encore notre autonomie. Les obstacles sont immenses, mais on sait comment les contourner ou faire différemment, on a le savoir-faire. Ce qui manque, ce sont des capitaux.
Par exemple, nos outils sont dimensionnés pour un à trois hectares alors qu’il faudrait cultiver dans de bonnes conditions trente hectares pour être rentable. Sachant que trente hectares, aujourd’hui, c’est une petite ferme. On parle beaucoup des micro-fermes sur un ou deux hectares, mais ce n’est pas qu’avec ce modèle qu’on résoudra le problème alimentaire. Même si ces fermes ont leur intérêt, elles ne suffiront jamais, à la manière des AMAP qui, dans les pays les plus développés comme le Japon, nourrissent au maximum 30 % de la population.

Il y a un effet d’échelle qui est nécessaire pour amortir les investissements. Sur un hectare, ça demande cinq ans de travail, soit 100 000 € avec une rémunération au SMIC par heure travaillée, si on veut rendre un sol de nouveau vivant.

Il y a une autre raison. Pour faire de la semence, il faut des distances d’isolement pour éviter que deux variétés d’une même espèce se croisent entre elles de façon non souhaitée, et qu’on perde toutes les variétés. Il nous faut soit des équipements pour limiter la circulation des pollens ou de la surface pour pouvoir faire de la semence. En fait il nous faut un peu des deux.

La phase actuelle, c’est une levée d’épargne auprès de nos clients, ou de toute personne intéressée, qui peut s’inscrire dans l’objet social de Jardin’enVie. Apporter de l’épargne à une entreprise telle que la nôtre, c’est manifester son accord avec l’objet social. Chaque personne aujourd’hui qui nous apporte un euro nous permet d’aller en chercher deux à trois auprès des institutions financières d’une part, et d’autre part, via son adhésion à l’objet social, qui est précis, d’aller voir les élus locaux ou les professionnels avec une force considérable. Ce n’est pas juste une chimère, parce que, de fait, les personnes qui s’impliquent, au-delà de l’achat d’une part sociale, nous apportent énormément de richesse, dans le sens connaissance d’un terroir, évolution de nos savoir-faire, et gestion de ces ressources comme des communs.

Ça permet de passer d’un mode artisanal et expérimental à un déploiement des savoir-faire, dans un premier temps au sein de Jardin’enVie et au-delà par la suite. L’une des choses qui se fait déjà, c’est de permettre à d’autres agriculteurs de faire évoluer leurs pratiques, de transformer leur activité, voire carrément de s’installer.

 

À rapprocher du modèle des CHATONS ?

Oui, c’est un peu la même logique.

Notre réflexion actuelle, c’est de faire le lien entre tout ce qui a trait aux communs, à la fois l’approche économique et la gouvernance, qui rapproche des secteurs d’activité très différents.
Au final, nous sommes confrontés aux même logiques économiques. De ce point de vue, j’estime que je n’ai pas changé de métier, entre informaticien et agriculteur maintenant.

 

Sauf que tu as plus mal au dos le soir ? 🙂

Même pas ! Être immobile sur une chaise, c’est pas forcément bon pour le squelette. Il y a peut-être des inconvénients, mais blague à part, dans le logiciel libre il nous fallait déjà trouver des solutions pour changer le modèle économique si on voulait vivre de son travail.  C’est pareil avec les variétés paysannes, nous sommes obligés d’être très inventifs sur le juridique, le financier, le social… Les réponses se ressemblent beaucoup, et les deux mondes peuvent s’apporter mutuellement. D’ailleurs, nous avons organisé des rencontres entre les semences paysannes et le logiciel libre à plusieurs reprises.

 

Ah oui, nous avons participé à une journée avec les Incroyables Comestibles d’Amiens.

Justement, une des entreprises d’informatique à laquelle j’ai contribué dans les années 90 est à Amiens. Les premières rencontres que nous avons organisées sur cette thématique croisée doivent dater de 2007 ou 2009… Elles n’ont pas forcément généré l’élan que nous espérions, parce qu’il y a quand même un écart entre la culture informatique et la culture paysanne. À nous de faire un effort de lucidité pour comprendre pourquoi ça n’a pas fonctionné plus tôt.

 

Le mot de la fin

Pour un exploitant agricole, a priori assez éloigné de l’informatique, l’utilisation de logiciel libre à 100 % dans un cadre d’entreprise, ça fonctionne et ça apporte des solutions métier. On n’utilise même pas Google ! Même notre présence sur les réseaux sociaux est limitée, mais pour autant on a de plus en plus de contacts, de sollicitations. Les réseaux sociaux nous servent juste à aller chercher les gens. Ça surprend toujours les personnes qui arrivent. Elles estiment que nous nous tirons une balle dans le pied en refusant de les utiliser à fond. Nous parvenons malgré tout à augmenter notre chiffre d’affaires sans accepter les conditions des réseaux sociaux contraires à nos objectifs d’émancipation et de déconcentration des pouvoirs. On est bien présents sur Facebook, on a bien une page, mais nous l’utilisons en mode « pirate », pour profiter de leur force de frappe et amener les gens vers notre site web, qui lui n’est pas une page Facebook.

Nous sommes en train de développer un logiciel métier spécifique pour accélérer la coévolution entre les plantes, les humains et les terroirs, en ajoutant aux savoirs des anciens ce que nous apportent la science et l’informatique d’aujourd’hui. Nous voulons accroître notre capacité à interagir avec le vivant via l’analyse de données.

Enfin, les spécificités de notre métier sont telles que nous n’avons pas trouvé de boutique en ligne, même dans le libre, qui permette de commercialiser ce que nous vendons ; nous créons donc notre propre interface de vente en ligne à partir de briques libres. C’est un projet qui n’est pas encore complètement abouti, hein, il nous faut encore quelques semaines. Nous comptons créer une communauté autour de ce logiciel lorsqu’il aura fait ses premiers pas. Là encore, c’est la même chose que pour les variétés paysannes : si on n’échange pas, on n’avance pas.

 

Pour aller plus loin :

Les photos nous ont été fournies par Jardin’enVie.




À l’ère de la surveillance numérique – Interview d’Antoine Tricot

Sur les ondes de France Culture, Antoine Tricot a récemment cosigné une série de quatre épisodes sur La Série Documentaire intitulée « À l’ère de la surveillance numérique ». Quatre épisodes pour parler du capitalisme de surveillance, de pouvoirs étatiques sur les outils numériques… et de comment s’y soustraire. Quatre épisodes que nous vous invitons à écouter, au contenu bourré d’informations, d’ambiances sonores, de témoignages de différents milieux professionnels, et dont nous avons souhaité interroger l’un des auteurs.

Capture écran de la page de l'émission
Capture écran de la page de la série – Cliquez pour accédez aux émissions

Bonjour Antoine, peux-tu te présenter ?

Je suis journaliste et je travaille principalement pour les émissions documentaires de la radio publique France culture. Je m’intéresse à des sujets très divers comme les quartiers populaires et les ruralités mais j’ai un petit tropisme sur les questions que posent à la société les technologies numériques et leurs usages. J’ai d’ailleurs commencé à France Culture en 2013 comme stagiaire dans l’émission Place de la Toile de Xavier De La Porte. J’ai ensuite pu organiser quelques émissions autour de ces sujets lorsque je travaillais pour l’émission Du Grain à Moudre, notamment celle intitulée « Que reste-t-il du logiciel libre ? » en 2016 où l’on a fait dialoguer Pierre-Yves Gosset de Framasoft et Bernard Ourghanlian de Microsoft ainsi qu’Amaëlle Guiton de Libération. Dernièrement, j’ai produit pour l’émission LSD – La Série Documentaire une série de 4 documentaires radio sur la surveillance numérique.

Le fonctionnement de LSD n’étant pas forcément connu de toutes et tous, peux-tu nous dire qui a travaillé sur ce documentaire audio ?

L’équipe d’un LSD est assez simple. Outre Perrine Kervran et Maryvonne Abolivier qui coordonnent l’émission, nous sommes une vingtaine de travailleuses et travailleurs indépendant.es qui proposons nos sujets régulièrement. Nous sommes ce que l’on appelle dans le jargon de la radio des « producteurs et productrices délégué⋅es ». Nous concevons les projets, proposons un découpage en quatre épisodes, nous choisissons les intervenant.es, préparons et dirigeons les interviews, écrivons et interprétons les voix-off (on appelle ça les « micros »)… Pour moi c’est un métier entre celui d’auteur et celui de journaliste. Nous travaillons avec un réalisateur ou une réalisatrice de France Culture pour monter les émissions, les mettre en son et en musique. Ici j’ai travaillé avec Rafik Zénine avec qui j’avais déjà travaillé avec plaisir sur une série autour des jeux vidéo. Et ce sont des technicien⋅nes du son qui s’occupent de la prise de son et du mixage final. Pour tous les citer, on a travaillé cette fois avec Laurent Macchietti, Martin Troadec, Valérie Lavallart et Eric Boisset.

Donc, concernant la série « À l’ère de la surveillance numérique » : comment t’es venue l’idée de ce sujet ? Et as-tu su comment la traiter dès le départ ?

L’idée de cette série est née durant le confinement. C’est un sujet que je suis depuis longtemps mais c’est à l’occasion d’un projet collectif réalisé pour LSD pendant le premier confinement et intitulé « Un printemps au temps du confinement » que j’ai commencé à en parler avec Perrine Kervran. Il me semblait que durant cette période si particulière, le débat notamment autour de l’application Stop Covid, des visioconférences et du télétravail, avait pris une amplitude rarement atteinte pour des sujets numériques qui ne mobilisent habituellement qu’une faible part de la population.

Au départ, je voulais donc surtout parler de ce que le numérique fait à nos vies et à notre société. Mais en rédigeant le projet, je me suis rendu compte que la question de la surveillance numérique revenait sans cesse. Elle était transversale à tous les autres sujets auxquels je pouvais penser. Y consacrer seulement un épisode sur quatre ne me semblait donc pas suffisant. D’autant plus que les ramifications de la question sont vraiment très complexes. J’ai donc proposé à France Culture d’angler toute la série autour de cette question et c’est ce qui a finalement été accepté à la fin de l’été 2020.

Par où as-tu commencé ?

Je commence toujours ma préparation de la même manière : par une boulimie de lectures. Que ce soit des articles scientifiques, des articles journalistiques, des livres mais aussi de la fiction en tout genre qui aborde d’une manière ou d’une autre le sujet. Sur des sujets internationaux comme celui-ci, j’essaie de varier les points de vue en lisant en français, en anglais et en allemand. Très vite, je me suis rendu compte que la surveillance numérique est extrêmement documentée et il a été difficile de faire un tri entre tout ce que je trouvais. J’ai rarement eu aussi souvent peur de passer à côté de quelque chose d’essentiel, de gommer la complexité, de tomber dans la caricature… Et à la fois, pour rendre intelligible le sujet pour toutes et tous, il était nécessaire de ne pas vouloir trop en dire de peur d’embrouiller les enjeux.

Sur la forme, toujours, comment s’est fait le choix des intervenant⋅es ?

C’est pour moi le plus difficile et une très grande partie du travail. Je ne cherche pas quelqu’un parce qu’il est connu et s’exprime beaucoup sur la question. Au contraire, le documentaire, en sortant de la maison de la radio, me semble permettre de donner la parole à d’autres que l’on entend moins. Je cherche des personnes qui ont une perspective particulière qui va éclairer la question de manière différente à chaque interview et permettre ainsi de faire avancer la narration.

Je cherche aussi des situations sonores. C’est-à-dire des situations qui vont faire entendre une ambiance, faire voyager l’auditeur quelque part où il n’irait pas forcément tout seul, lui faire comprendre des choses au-delà des mots par une ambiance. Ça peut-être par exemple la visite d’un Data Center (très sonore) ou bien le check-up des pisteurs présent sur mon smartphone avec une militante de Exodus Privacy. Cela permet des dialogues plus concrets, plus imagés, plus vivant aussi.

 

Un des enjeux est aussi de veiller à la parité (ou en tout cas essayer de s’en approcher) de voix féminines et masculines. Cela n’a pas été évident pour ce sujet même si les choses changent peu à peu et que certaines femmes deviennent un peu plus visibles. Il faut toujours un peu plus de temps pour trouver des interlocutrices plutôt que des interlocuteurs.

Trouver le bon équilibre entre tous ces critères est vraiment précaire et ça me terrorise jusqu’au dernier moment de ne pas avoir le bon casting. Tout se monte, mais la qualité des paroles récoltées fait beaucoup à la qualité d’un documentaire et au temps que l’on va passer sur le montage. Comme je ne veux pas faire perdre du temps aux gens en les interviewant pour ensuite m’apercevoir au montage que leur propos passe un peu à côté du sujet ou bien qu’on n’a pas la place de le mettre, je me mets énormément de pression. Malheureusement, ça arrive parfois que l’on soit obliger de passer à la trappe une interview pour de multiples raisons. On ne peut pas tout prévoir.

Et combien de temps l’ensemble du travail vous a-t-il pris ?

J’aurai du mal à dire exactement combien de temps j’y ai passé à temps plein. Environ 4 mois très chargés. En tout cas c’est très intense à chaque fois et je finis épuisé.

J’ai travaillé sur la préparation entre juillet et septembre 2020 en faisant d’autres projets à côté. Puis à temps (plus que) plein de mi-novembre à début janvier. Ensuite il y a eu 2 semaines de tournages, 5 semaines de montages, 2 semaines d’écriture de la voix off, puis 1 semaine de mixage ce qui nous a amené jusqu’à mi-mars 2021. Donc oui, 4 gros mois sans compter la rédaction du projet au départ.

Rentrons un peu dans le détail des épisodes.

L’épisode 1, « Capitalisme de surveillance » est évidemment un sujet qui nous touche particulièrement à Framasoft. Cela fait quelques années que nous participons à sensibiliser à cette problématique. Un de nos administrateurs bénévoles que tu as interviewé, Christophe Masutti, a même écrit un ouvrage dessus. Peux-tu nous en dire plus sur cet épisode, notamment sur ce qui t’a marqué, et ce que tu y as toi-même appris ?

Épisode 1 : Le capitalisme de surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Ce qui me semblait important c’était de partir de ce que l’on voit le plus au quotidien : la publicité ciblée puis de montrer petit à petit l’ampleur des enjeux que peut poser la collecte massive des données numériques par des entreprises privées.

Mais je voulais aussi montrer que l’on n’est pas arrivé par hasard à cette idée de faire des profits en vendant, louant, échangeant de l’information sur les clients en puissance que sont les usagers d’internet. C’est le résultat d’une longue évolution de l’économie, du marketing et de l’industrie, en particulier américaine. Christophe Masutti l’explique très bien dans son livre Affaires privées et dans ses articles. Mais c’est rarement rappelé dans les travaux journalistiques sur la question. Heureusement, les travaux de la chercheuse américaine Shoshana Zuboff ont enfin obtenu récemment un écho que toutes les autres personnes travaillant sur ces questions depuis longtemps espéraient avoir un jour.

Ce qui m’a le plus marqué c’est bien sûr les conséquences sur la vie politique que peuvent avoir ces pratiques de traitement et d’exploitation des données à grande échelle. Ce qu’a révélé le scandale Cambridge Analytica est pour moi décisif pour comprendre comment se fabrique la politique actuellement. Les politiques ne parlent plus à un peuple de citoyens mais à des segments de consommateurs. C’est ce qui explique des discours politiques qui paraissent parfois contradictoires pour ceux qui, comme les journalistes, se situent au-delà des bulles d’informations et les reçoivent tous en même temps. Mais il faut comprendre que très peu de personnes ont une vue globale de l’information à un instant T. Ce qui compte pour un politique n’est plus de persuader une majorité d’électeurs sur un sujet donné, mais de convaincre des groupes très restreints sur des sujets de niches en adoptant une posture qui les séduit. Ce n’est pas infaillible et c’est plus limité en Europe qu’aux États-Unis du fait d’une réglementation plus protectrice des données. Mais je pense qu’il faut aujourd’hui en être conscient et en informer les citoyens si l’on veut se positionner, comme le fait Framasoft, contre ce modèle de surveillance numérique et y apporter les bonnes réponses.

Le second épisode : « Géopolitique de la surveillance numérique » est un sujet assez peu traité par les médias. Là encore, quel sentiment gardes-tu de cet épisode ?

Épisode 2 : Géopolitique de la surveillance numérique - Cliquez l'image pour accéder à la page.
Épisode 2 : Géopolitique de la surveillance numérique – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis parti d’une question assez simple : est-ce que la NSA ou bien les services Chinois lisent mes SMS ? C’est un peu ce que tout le monde se demande depuis Snowden. Mais la réponse est en fait très difficile à donner pour une seule et bonne raison : on a très peu d’informations fiables sur le sujet. De manière pas tout à fait étonnante : les espions ne parlent pas beaucoup. Certes les révélations de Snowden et les quelques leaks qui ont touché les entreprises de sécurité ces dernières années nous donnent tout de même des pistes. Mais on parle de documents qui ont maintenant parfois plus de dix ou quinze ans et entre ce qu’affichent les entreprises ou les États en interne et la réalité des pratiques, il y a parfois de grandes différences. De plus, je me suis aperçu que pour comprendre les documents de l’Affaire Snowden, il fallait souvent interpréter d’obscurs schémas, notices, slides, etc. Alors un peu comme les exégèses religieuses, des visions différentes s’opposent. Certaines plus alarmistes, d’autre plus mesurées. Attention, tout le monde est d’accord pour dire que les agences de renseignements de la plupart des États scrutent ce qu’il se passe sur internet à grande échelle. Mais le débat porte sur les capacités des services secrets des différents pays à collecter de manière massive les données, ce qu’ils peuvent faire et qui ils surveillent exactement. On ne peut pas dire que ce soient des sujets qui sont peu abordés dans les médias depuis l’affaire Snowden. Au contraire même. Mais ils le sont souvent de manière schématique.

Je parle de géopolitique car c’est ce qui s’est imposé assez vite dans ma tête : cette question de la surveillance numérique a des conséquences concrètes pour les citoyens de nombreux pays, mais elle a un impact aussi très important sur les relations internationales. C’est aujourd’hui un véritable espace de compétition internationale et d’affrontement. Et ça ne va pas aller en s’arrangeant.

On se doute que tu n’as pas de boule de cristal, mais suite à ce que tu as lu/vu/entendu : comment imagines-tu la suite des événements concernant, justement, la géopolitique de la surveillance ? Dit autrement, si tu avais la possibilité d’aller enquêter plus avant, quels seraient les sujets que tu aimerais traiter ?

J’aimerais beaucoup être un petit lutin pouvant me glisser dans les centres de renseignements de la Chine et dans les bureaux de la NSA pour pouvoir répondre à cette question.

Ce qui me paraît probable c’est que la concurrence entre les pays pour récolter le plus d’informations possible ne va pas diminuer. Cela va ouvrir encore plus d’opportunités pour toute une industrie privée fabriquant des « armes » numériques. Il y a fort à parier que ces « armes » soient un jour réutilisées par des groupes criminels pour leurs propres usages. Donc, comme le dit la juriste Aude Géry dans le documentaire cette militarisation d’Internet va avoir et a déjà des conséquences rudes pour les usagers d’Internet. Par ailleurs, l’augmentation d’acteurs privés collaborant avec les services de renseignements étatiques soulèvent aussi des questions de contrôle de ces pratiques par les gouvernements et par les parlements.

La troisième séquence de la série s’intéresse à la « Safe city ». Honnêtement, c’est un sujet que nous maîtrisons moins. En plus des militant⋅es de La Quadrature (coucou !) qui coordonnent notamment la campagne « technopolice », tu t’es rendu à Roubaix au Centre de Supervision Urbaine qui organise entre autres la gestion des caméras de surveillance de la ville. C’est à la fois un petit choc cognitif d’entendre les deux parties (citoyenne/militante, et « forces de l’ordre », comme on les appelle maintenant), et pourtant, on sent chez l’officier directeur de ce centre à la fois un grand professionnalisme, mais aussi poindre la critique des limites d’un tel système, dépendant de technologies extérieures. La police dépendant des industriels pour faire leur travail, ce n’est pas forcément nouveau, mais avec ton regard de journaliste, comment perçois-tu cette transition vers le numérique (« digitalisation », dirait-on dans certain milieux) ? Notamment en ce qui concerne la question de l’intelligence artificielle ?

(HS: on en profite pour signaler à celleux que ça intéresse une autre émission de France Culture, « Pass sanitaire et identité numérique : quels dangers pour nos libertés ? » avec l’incontournable Olivier Tesquet, mais aussi William Eldin, CEO de l’entreprise XXII dont les technos nous font plus flipper que rêver, et que tu interviewais aussi dans cet épisode 3)

Épisode 3 : Dans les allées de la safe city - Cliquez l'image pour accéder à la page.
Épisode 3 : Dans les allées de la safe city – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Pour moi la vidéosurveillance, d’autant plus si elle est automatique, est un parfait exemple de solutionnisme technologique et c’est là où une partie de l’approche de La Quadrature du net me parle. Toute une série de facteurs d’ordre économiques, sociaux, politiques créent des situations d’insécurité et de la violence dans la société. Mais plutôt que de se confronter aux causes réelles du phénomène, on présente une solution technique comme à même d’éliminer tous les symptômes. Alors certains mettent en place des dispositifs avec professionnalisme et déontologie comme c’est le cas de Christian Belpaire à Roubaix avec qui il est vraiment intéressant d’échanger sur ces questions. Certains entrepreneurs réfléchissent sincèrement comme William Eldin qui dirige l’entreprise XXII sur ce qu’ils produisent et sur les moyens d’utiliser à bon escient la vidéosurveillance automatique. Dans des situations particulières cela peut certainement être très utile. Mais à aucun moment on pose la question du rapport coût/efficacité/conséquences pour les Droits humains. La Cour des Comptes elle-même a mis en garde les collectivités locales contre les dépenses liées à la vidéosurveillance dans la mesure où aucune enquête ne prouve jusqu’à présent son efficacité pour lutter contre la délinquance par rapport aux dispositifs préexistant. Mais cela n’empêche pas les politiques d’en installer toujours plus. Je le vois concrètement à Saint-Denis où j’habite depuis les dernières élections municipales de 2020. Les entreprises ne s’y trompent pas non plus. La pression sur les collectivités locales est très importante car les sommes en jeu sont colossales. Et l’argent qui est utilisé là, n’est pas utilisé ailleurs.

Les investissements dans ce domaine participent d’une logique politique actuelle qui préfère mettre beaucoup de sous sur un temps réduit dans des équipements plutôt que de financer sur le long terme des salaires. Pourtant, j’ai passé beaucoup de temps dans les quartiers populaires à Dunkerque et j’ai pu observer l’impact positif que pouvait avoir la présence des éducateurs de rue sur la délinquance et bien d’autres situations de détresse. Et pourtant, je ne connais aucun politique qui actuellement se vante d’augmenter les ressources de ces dispositifs de prévention spécialisée.

Enfin, la quatrième et dernière partie s’intéresse aux solutions. Là encore, on y croise des gens proches de Framasoft ou qu’on aime beaucoup (coucou Geoffrey), et même des personnes de Framasoft (l’une de nos co-présidentes, Maiwann). Toujours sans redire ce qui s’est dit dans le documentaire, quels étaient tes sentiments en interrogeant ces chercheurs, journalistes, militant⋅es ? T’es-tu dit que c’était foutu ou qu’il restait de l’espoir ?

Épisode 4 : Échapper à la surveillance - Cliquez l'image pour accéder à la page et écouter l'épisode sur le site de France Culture.
Épisode 4 : Échapper à la surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis de nature optimiste. Des peuples ont renversé des autocrates tout puissants tout au long de l’histoire. Rien n’est définitif. On parle aujourd’hui plus que jamais de ces dispositifs de surveillance numérique. On commence à comprendre le danger qu’ils représentent pour la démocratie. Des structures comme Framasoft obtiennent une audience auprès du grand public qu’aucun bidouilleur du logiciel libre n’a eu jusqu’à présent. De plus en plus de personnes comprennent les nécessités d’étendre le chiffrement à toutes les communications numériques. L’application Signal s’impose comme une référence dans le domaine de la messagerie… Alors certes, la puissance des multinationales peu vertueuses et des autocraties sans scrupule n’en sort pas diminuée. Mais il y a de l’espoir. Et ce que j’aborde dans le documentaire n’est qu’une toute petite partie des initiatives et résistances qui existent et se développent aujourd’hui.

Au final, maintenant ce travail publié et diffusé, il y a forcément pour nous une frustration à ce que ce travail de vulgarisation et de sensibilisation, qu’on considère comme important et largement financé par de l’argent public, ne soit pas sous licence libre (si les hautes sphères de Radio France nous lisent et veulent en discuter, on est disponibles pour en parler !). Cependant, te concernant, quelles suites souhaiterais-tu voir donner à cette série ?

La licence n’est pas libre car actuellement Radio France tente de reprendre la main sur la diffusion de ses podcasts face aux plateformes qui réalisent des profits grâce aux productions du service public. Le paradoxe est donc qu’il faut restreindre la diffusion pour qu’elle soit plus pérenne et ne soit pas soumise au bon vouloir des Google, Apple et autres Spotify. Cependant toutes les productions de France Culture sont disponibles sur le site internet tant que Radio France restera un service public. On ne peut donc qu’espérer qu’un maximum de personnes écoute, partage, commente, critique et se réapproprie les pistes que j’ai déployées dans cette série documentaire. Ce n’est qu’une brique de plus dans les efforts fait pour documenter et réfléchir la place de la technologie dans la société et il reste beaucoup à dire et à faire.

Dernière question, traditionnelle : y a-t-il une question que l’on ne t’a pas posée ou un élément que tu souhaiterais ajouter ?

Demandez à Google et à la NSA… ils doivent bien savoir ce que l’on a oublié.

Merci Antoine !




Partagez l’inventaire de votre bibliothèque avec vos proches sur inventaire.io

Inventaire.io est une application web libre qui permet de faire l’inventaire de sa bibliothèque pour pouvoir organiser le don, le prêt ou la vente de livres physiques. Une sorte de méga-bibliothèque communautaire, si l’on veut. Ces derniers mois, Inventaire s’est doté de nouvelles fonctionnalités et on a vu là l’occasion de valoriser ce projet auprès de notre communauté. On a donc demandé à Maxlath et Jums qui travaillent sur le projet de répondre à quelques unes de nos questions.

Chez Framasoft, on a d’ailleurs créé notre inventaire où l’on recense les ouvrages qu’on achète pour se documenter. Cela permet aux membres de l’association d’avoir un accès facile à notre bibliothèque interne. On a aussi fait le choix de proposer ces documents en prêt, pour que d’autres puissent y accéder.

Salut Maxlath et Jums ! Pouvez-vous vous présenter ?

Nous sommes une association de deux ans d’existence, développant le projet Inventaire, centré autour de l’application web inventaire.io, en ligne depuis 2015. On construit Inventaire comme une infrastructure libre, se basant donc autant que possible sur des standards ouverts, et des logiciels et savoirs libres : Wikipédia, Wikidata, et plus largement le web des données ouvertes.

Le projet grandit également au sein de communautés et de lieux : notamment le mouvement Wikimedia, l’archipel framasoftien à travers les Contribateliers, la MYNE et la Maison de l’Économie Circulaire sur Lyon, et Kanthaus en Allemagne.

L’association ne compte aujourd’hui que deux membres, mais le projet ne serait pas où il en est sans les nombreu⋅ses contributeur⋅ices venu⋅es nous prêter main forte, notamment sur la traduction de l’interface, la contribution aux données bibliographiques, le rapport de bugs ou les suggestions des nouvelles fonctionnalités.

Vous pouvez nous en dire plus sur Inventaire.io ? Ça sert à quoi ? C’est pour qui ?

Inventaire.io se compose de deux parties distinctes :

  • D’une part, une application web qui permet à chacun⋅e de répertorier ses livres en scannant le code barre par exemple. Une fois constitué, cet inventaire est rendu accessible à ses ami⋅es et groupes, ou publiquement, en indiquant pour chaque livre si l’on souhaite le donner, le prêter, ou le vendre. Il est ensuite possible d’envoyer des demandes pour ces livres et les utilisateur⋅ices peuvent prendre contact entre elleux pour faire l’échange (en main propre, par voie postale, peu importe, Inventaire n’est plus concerné).
  • D’autre part, une base de données publique sur les auteurs, les œuvres, les maisons d’éditions, etc, qui permet à chacun⋅e de venir enrichir les données, un peu comme dans un wiki. Le tout organisé autour des communs de la connaissance (voir plus bas) que sont Wikipédia et Wikidata. Cette base de données bibliographiques permet d’adosser les inventaires à un immense graphe de données dont nous ne faisons encore qu’effleurer les possibilités (voir plus bas).

L’inventaire de Framasoft sur inventaire.io

Inventaire.io permettant de constituer des bibliothèques distribuées, le public est extrêmement large : tou⋅tes celleux qui ont envie de partager des livres ! On a donc très envie de dire que c’est un outil pour tout le monde ! Mais comme beaucoup d’outils numériques, l’outil d’inventaire peut être trop compliqué pour des personnes qui ne baignent pas régulièrement dans ce genre d’applications. C’est encore pire une fois que l’on rentre dans la contribution aux données bibliographiques, où on aimerait concilier richesse de la donnée et facilité de la contribution. Cela dit, on peut inventorier ses livres sans trop se soucier des données, et y revenir plus tard une fois qu’on se sent plus à l’aise avec l’outil.

Par ailleurs, on rêverait de pouvoir intégrer les inventaires des professionnel⋅les du livre, bibliothèques et librairies, à cette carte des ressources, mais cela suppose soit de l’interopérabilité avec leurs outils existants, soit de leur proposer d’utiliser notre outil (ce que font déjà de petites bibliothèques, associatives par exemple), mais inventaire.io nous semble encore jeune pour une utilisation à plusieurs milliers de livres.

Quelle est l’actualité du projet ? Vous prévoyez quoi pour les prochains mois / années ?

L’actualité de ces derniers mois, c’est tout d’abord de nouvelles fonctionnalités :

  • les étagères, qui permettent de grouper des livres en sous-catégories, et qui semble rencontrer un certain succès ;
  • la mise en place de rôles, qui va permettre notamment d’ouvrir les taches avancées d’administration des données bibliographiques (fusions/suppressions d’édition, d’œuvre, d’auteur etc.) ;
  • l’introduction des collections d’éditeurs, qui permettent de valoriser le travail de curation des maisons d’édition.

Pas mal de transitions techniques sous le capot aussi. On n’est pas du genre à changer de framework tous les quatre matins, mais certains choix techniques faits au départ du projet en 2014 – CoffeeScript, Brunch, Backbone – peuvent maintenant être avantageusement remplacés par des alternatives plus récentes – dernière version de Javascript (ES2020), Webpack, Svelte – ce qui augmente la maintenabilité et le confort, voire le plaisir de coder.

Autre transition en cours, notre wiki de documentation est maintenant une instance MediaWiki choisie entre autres pour sa gestion des traductions.

Le programme des prochains mois et années n’est pas arrêté, mais il y a des idées insistantes qu’on espère voir germer prochainement :

  • la décentralisation et la fédération (voir plus bas) ;
  • les recommandations entre lectrices : aujourd’hui on peut partager de l’information sur les livres que l’on possède, mais pas les livres que l’on apprécie, recommande ou recherche. Même si une utilisation détournée de l’outil est possible en ce sens et nous met aussi en joie (oui, c’est marrant de voir des humains détourner une utilisation), on devrait pouvoir proposer quelque chose pensé pour ;
  • des paramètres de visibilité d’un livre ou d’une étagère plus élaborés : aujourd’hui, les seuls modes de partage possible sont privé/amis et groupes/public, or amis et groupes ça peut être des personnes très différentes avec qui on n’a pas nécessairement envie de partager les mêmes choses.

Enfin tout ça c’est ce qu’on fait cachés derrière un écran, mais on aimerait bien aussi expérimenter avec des formats d’évènements, type BiblioParty : venir dans un lieu avec une belle bibliothèque et aider le lieu à en faire l’inventaire.

C’est quoi le modèle économique derrière inventaire.io ? Quelles sont/seront vos sources de financement ?
Pendant les premières années, l’aspect « comment on gagne de l’argent » était une question volontairement laissée de côté, on vivait avec quelques prestations en micro-entrepreneurs, notamment l’année dernière où nous avons réalisé une preuve de concept pour l’ABES (l’Agence bibliographique pour l’enseignement supérieur) et la Bibliothèque Nationale de France. Peu après, nous avons fondé une association loi 1901 à activité économique (voir les statuts), ce qui devrait nous permettre de recevoir des dons, que l’on pourra compléter si besoin par de la prestation de services. Pour l’instant, on compte peu sur les dons individuels car on est financé par NLNet via le NGI0 Discovery Fund.

Et sous le capot, ça fonctionne comment ? Vous utilisez quoi comme technos pour faire tourner le service ?
Le serveur est en NodeJS, avec une base de données CouchDB, synchronisé à un Elasticsearch pour la recherche, et LevelDB pour les données en cache. Ce serveur produit une API JSON (documentée sur https://api.inventaire.io) consommée principalement par le client : une webapp qui a la responsabilité de tout ce qui est rendu de l’application dans le navigateur. Cette webapp consiste en une bonne grosse pile de JS, de templates, et de CSS, initialement organisée autour des framework Backbone.Marionnette et Handlebars, lesquels sont maintenant dépréciés en faveur du framework Svelte. Une visualisation de l’ensemble de la pile technique peut être trouvée sur https://stack.inventaire.io.

Le nom est assez français… est-ce que ça ne pose pas de problème pour faire connaître le site et le logiciel à l’international ? Et d’ailleurs, est-ce que vous avez une idée de la répartition linguistique de vos utilisatrices ? (francophones, anglophones, germanophones, etc.)
Oui, le nom peut être un problème au début pour les non-francophones, lequel⋅les ne savent pas toujours comment l’écrire ou le prononcer. Cela fait donc un moment qu’on réfléchit à en changer, mais après le premier contact, ça ne semble plus poser de problème à l’utilisation (l’un des comptes les plus actifs étant par exemple une bibliothèque associative allemande), alors pour le moment on fait avec ce qu’on a.

Sticker inventaire.io

En termes de répartition linguistique, une bonne moitié des utilisateur⋅ices et contributeur⋅ices sont francophones, un tiers anglophones, puis viennent, en proportion beaucoup plus réduite (autour de 2%), l’allemand, l’espagnol, l’italien, suivi d’une longue traîne de langues européennes mais aussi : arabe, néerlandais, portugais, russe, polonais, danois, indonésien, chinois, suédois, turc, etc. À noter que la plupart de ces langues ne bénéficiant pas d’une traduction complète de l’interface à ce jour, il est probable qu’une part conséquente des utilisatrices utilisent l’anglais, faute d’une traduction de l’interface satisfaisante dans leur langue (malgré les 15 langues traduites à plus de 50%).

À ce que je comprends, vous utilisez donc des données provenant de Wikidata. Pouvez-vous expliquer à celles et ceux qui parmi nous ne sont pas très au point sur la notion de web de données quels sont les enjeux et les applications possibles de Wikidata ?
Tout comme le web a introduit l’hypertexte pour pouvoir lier les écrits humains entre eux (par exemple un article de blog renvoie vers un autre article de blog quelque part sur le web), le web des données ouvertes permet aux bases de données de faire des liens entre elles. Cela permet par exemple à des bibliothèques nationales de publier des données bibliographiques que l’on peut recouper : « Je connais cette auteure avec tel identifiant unique dans ma base. Je sais aussi qu’une autre base de données lui a donné cet autre identifiant unique ; vous pouvez donc aller voir là-bas s’ils en savent plus ». Beaucoup d’institutions s’occupent de créer ces liens, mais la particularité de Wikidata, c’est que, tout comme Wikipédia, tout le monde peut participer, discuter, commenter ce travail de production de données et de mise en relation.

L’éditeur de données, très facile d’utilisation, permet le partage vers wikidata.

Est-ce qu’il serait envisageable d’établir un lien vers la base de données de https://www.recyclivre.com/ quand l’ouvrage recherché ne figure dans aucun « inventaire » de participant⋅es ?
Ça pose au moins deux problèmes :

  • Ce service et d’autres qui peuvent être sympathiques, telles que les plateformes mutualisées de librairies indépendantes (leslibraires.fr, placedeslibraires.fr, librairiesindependantes.com, etc.), ne semblent pas intéressés par l’inter-connexion avec le reste du web, construisant leurs URL avec des identifiants à eux (seul le site librairiesindependantes.com semble permettre de construire une URL avec un ISBN, ex : https://www.librairiesindependantes.com/product/9782253260592/) et il n’existe aucune API publique pour interroger leurs bases de données : il est donc impossible, par exemple, d’afficher l’état des stocks de ces différents services.
  • D’autre part, recyclivre est une entreprise à but lucratif (SAS), sans qu’on leur connaisse un intérêt pour les communs (code et base de données propriétaires). Alors certes ça cartonne, c’est efficace, tout ça, mais ce n’est pas notre priorité : on aimerait être mieux connecté avec celleux qui, dans le monde du livre, veulent participer aux communs : les bibliothèques nationales, les projets libres comme OpenLibrary, lib.reviews, Bookwyrm, Readlebee, etc.

Cependant la question de la connexion avec des organisations à but lucratif pose un vrai problème : l’objectif de l’association Inventaire — cartographier les ressources où qu’elles soient — implique à un moment de faire des liens vers des organisations à but lucratif. En suivant l’esprit libriste, il n’y a aucune raison de refuser a priori l’intégration de ces liens, les développeuses de logiciels libres n’étant pas censé contraindre les comportements des utilisatrices ; mais ça pique un peu de travailler gratuitement, sans contrepartie pour les communs.

En quoi inventaire.io participe à un mouvement plus large qui est celui des communs de la connaissance ?
Inventaire, dans son rôle d’annuaire des ressources disponibles, essaye de valoriser les communs de la connaissance, en mettant des liens vers les articles Wikipédia, vers les œuvres dans le domaine public disponibles en format numérique sur des sites comme Wikisource, Gutenberg ou Internet Archive. En réutilisant les données de Wikidata, Inventaire contribue également à valoriser ce commun de la connaissance et à donner à chacun une bonne raison de l’enrichir.

Une interface simple pour ajouter un livre à son inventaire

Inventaire est aussi un commun en soi : le code est sous licence AGPL, les données bibliographiques sous licence CC0. L’organisation légale en association vise à ouvrir la gouvernance de ce commun à ses contributeur⋅ices. Le statut associatif garantit par ailleurs qu’il ne sera pas possible de transférer les droits sur ce commun à autre chose qu’une association poursuivant les mêmes objectifs.

Si je suis une organisation ou un particulier qui héberge des services en ligne, est-ce que je peux installer ma propre instance d’inventaire.io ?
C’est possible, mais déconseillé en l’état. Notamment car les bases de données bibliographiques de ces différentes instances ne seraient pas synchronisées, ce qui multiplie par autant le travail nécessaire à l’amélioration des données. Comme il n’y a pas encore de mécanisme de fédération des inventaires, les comptes de votre instance seraient donc isolés. Sur ces différents sujets, voir cette discussion : https://github.com/inventaire/inventaire/issues/187 (en anglais).

Cela dit, si vous ne souhaitez pas vous connecter à inventaire.io, pour quelque raison que ce soit, et malgré les mises en garde ci-dessus, vous pouvez vous rendre sur https://github.com/inventaire/inventaire-deploy/ pour déployer votre propre instance « infédérable ». On va travailler sur le sujet dans les mois à venir pour tendre vers plus de décentralisation.

A l’heure où il est de plus en plus urgent de décentraliser le web, envisagez-vous qu’à terme, il sera possible d’installer plusieurs instances d’inventaire.io et de les connecter les unes aux autres ?
Pour la partie réseau social d’inventaires, une décentralisation devrait être possible, même si cela pose des questions auquel le protocole ActivityPub ne semble pas proposer de solution. Ensuite, pour la partie base de données contributives, c’est un peu comme si on devait maintenir plusieurs instances d’OpenStreetMap en parallèle. C’est difficile et il semble préférable de garder cette partie centralisée, mais puisqu’il existe plein de services bibliographiques différents, il va bien falloir s’interconnecter un jour.

Vous savez sûrement que les Chevaliers Blancs du Web Libre sont à cran et vont vous le claironner : vous restez vraiment sur GitHub pour votre dépôt de code https://github.com/inventaire ou bien… ?
La pureté militante n’a jamais été notre modèle. Ce compte date de 2014, à l’époque Github avait peu d’alternatives… Cela étant, il est certain que nous ne resterons pas éternellement chez Microsoft, ni chez Transifex ou Trello, mais les solutions auto-hébergées c’est du boulot, et celles hébergées par d’autres peuvent se révéler instables.

Si on veut contribuer à Inventaire.io, on fait ça où ? Quels sont les différentes manière d’y contribuer ?
Il y a plein de manières de venir contribuer, et pas que sur du code, loin de là : on peut améliorer la donnée sur les livres, la traduction, la documentation et plus généralement venir boire des coups et discuter avec nous de la suite ! Rendez-vous sur https://wiki.inventaire.io/wiki/How_to_contribute/fr.

Est-ce que vous avez déjà eu vent d’outils tiers qui utilisent l’API ? Si oui, vous pouvez donner des noms ? À quoi servent-ils ?
Readlebee et Bookwyrm sont des projets libres d’alternatives à GoodReads. Le premier tape régulièrement dans les données bibliographiques d’Inventaire. Le second vient de mettre en place un connecteur pour chercher de la donnée chez nous. A noter : cela apporte une complémentarité puisque ces deux services sont orientés vers les critiques de livres, ce qui reste très limité sur Inventaire.

Et comme toujours, sur le Framablog, on vous laisse le mot de la fin !
Inventaire est une app faite pour utiliser moins d’applications, pour passer du temps à lire des livres, papier ou non, et partager les dernières trouvailles. Pas de capture d’attention ici, si vous venez deux fois par an pour chiner des bouquins, ça nous va très bien ! Notre contributopie c’est un monde où l’information sur la disponibilité des objets qui nous entoure nous affranchit d’une logique de marché généralisée. Un monde où tout le monde peut contribuer à casser les monopoles de l’information sur les ressources que sont les géants du web et de la distribution. Pouvoir voir ce qui est disponible dans un endroit donné, sans pour autant dépendre ni d’un système cybernétique central, ni d’un marché obscur où les entreprises qui payent sont dorlotées par un algorithme de recommandations.

Merci beaucoup Maxlath et Jums pour ces explications et on souhaite longue vie à Inventaire. Et si vous aussi vous souhaitez mettre en commun votre bibliothèque, n’hésitez pas !