1

Un kit pédagogique proposé par Exodus Privacy

À l’heure où dans une dérive policière inquiétante on criminalise les personnes qui veulent protéger leur vie privée, il est plus que jamais important que soient diffusées à une large échelle les connaissances et les pratiques qui permettent de prendre conscience des enjeux et de préserver la confidentialité. Dans cette démarche, l’association Exodus Privacy joue un rôle important en rendant accessible l’analyse des trop nombreux pisteurs qui parasitent nos ordiphones. Cette même association propose aujourd’hui un nouvel outil ou plutôt une boîte à outils tout aussi intéressante…

Bonjour, Exodus Privacy. Chez Framasoft, on vous connaît bien et on vous soutient mais pouvez-vous rappeler à nos lecteurs et lectrices en quoi consiste l’activité de votre association?

Oui, avec plaisir ! L’association Exodus Privacy a pour but de permettre au plus grand nombre de personnes de mieux protéger sa vie privée sur son smartphone. Pour cela, on propose des outils d’analyse des applications issues du Google Play store ou de F-droid qui permettent de savoir notamment si des pisteurs s’y cachent. On propose donc une application qui permet d’analyser les différentes applications présentes sur son smartphone et une plateforme d’analyse en ligne.

Logo d'exodus privacy, c'est un E
Logo d’Exodus Privacy

Alors ça ne suffisait pas de fournir des outils pour ausculter les applications et d’y détecter les petits et gros espions ? Vous proposez maintenant un outil pédagogique ? Expliquez-nous ça…
Depuis le début de l’association, on anime des ateliers et des conférences et on est régulièrement sollicité·es pour intervenir. Comme on est une petite association de bénévoles, on ne peut être présent·es partout et on s’est dit qu’on allait proposer un kit pour permettre aux personnes intéressées d’animer un atelier « smartphones et vie privée » sans avoir besoin de nous !

Selon vous, dans quels contextes le kit peut-il être utilisé ? Vous vous adressez plutôt aux formatrices ou médiateurs de profession, aux bénévoles d’une asso qui veulent proposer un atelier ou bien directement aux membres de la famille Dupuis-Morizeau ?
Clairement, on s’adresse à deux types de publics : les médiateur·ices numériques professionnel·les qui proposent des ateliers pour leurs publics, qu’ils et elles soient en bibliothèque, en centre social ou en maison de quartier, mais aussi les bénévoles d’associations qui proposent des actions autour de la protection de l’intimité numérique.

Bon en fait qu’est-ce qu’il y a dans ce kit, et comment on peut s’en servir ?
Dans ce kit, il y a tout pour animer un atelier d’1h30 destiné à un public débutant ou peu à l’aise avec le smartphone : un déroulé détaillé pour la personne qui anime, un diaporama, une vidéo pédagogique pour expliquer les pisteurs et une fiche qui permet aux participant·es de repartir avec un récapitulatif de ce qui a été abordé pendant l’atelier.

Par exemple, on propose, à partir d’un faux téléphone, dont on ne connaît que les logos des applications, de deviner des éléments sur la vie de la personne qui possède ce téléphone. On a imaginé des méthodes d’animation ludiques et participatives, mais chacun·e peut adapter en fonction de ses envies et de son aisance !

un faux téléphone pour acquérir de vraies compétences en matière de vie privée
un faux téléphone pour acquérir de vraies compétences en matière de vie privée

Comment l’avez-vous conçu ? Travail d’une grosse équipe ou d’un petit noyau d’acharnés ?
Nous avons été au total 2-3 bénévoles dans l’association à créer les contenus, dont MeTaL_PoU qui a suivi/piloté le projet, Héloïse de NetFreaks qui s’est occupée du motion-design de la vidéo et _Lila* de la création graphique et de la mise en page. Tout s’est fait à distance ! À chaque réunion mensuelle de l’association, on faisait un point sur l’avancée du projet, qui a mis plus longtemps que prévu à se terminer, sûrement parce qu’on n’avait pas totalement bien évalué le temps nécessaire et qu’une partie du projet reposait sur du bénévolat. Mais on est fier·es de le publier maintenant !

Vous l’avez déjà bêta-testé ? Premières réactions après tests ?
On a fait tester un premier prototype à des médiateur·ices numériques. Les retours ont confirmé que l’atelier fonctionne bien, mais qu’il y avait quelques détails à modifier, notamment des éléments qui manquaient de clarté. C’est l’intérêt des regards extérieurs : au sein d’Exodus Privacy, des choses peuvent nous paraître évidentes alors qu’elles ne le sont pas du tout !

aspi espion qui aspire les données avec l'œil de la surveillance
Aspi espion qui aspire vos données privées en vous surveillant du coin de l’œil

 

Votre kit est disponible pour tout le monde ? Sous quelle licence ? C’est du libre ?
Il est disponible en CC-BY-SA, et c’est du libre, comme tout ce qu’on fait ! Il n’existe pour le moment qu’en français, mais rien n’empêche de contribuer pour l’améliorer !

Tout ça représente un coût, ça justifie un appel aux dons ?
Nous avons eu de la chance : ce projet a été financé en intégralité par la Fondation AFNIC pour un numérique inclusif et on les remercie grandement pour ça ! Le coût de ce kit est quasi-exclusivement lié à la rémunération des professionnel·les ayant travaillé sur le motion design, la mise en page et la création graphique.

Est-ce que vous pensez faire un peu de communication à destination des publics visés, par exemple les médiateur-ices numériques de l’Éducation Nationale, des structures d’éducation populaire comme le CEMEA  etc. ?

Mais oui, c’est prévu : on est déjà en contact avec le CEMEA et l’April notamment. Il y a également une communication prévue au sein des ProfDoc. et ce sera diffusé au sein des réseaux de MedNum.

Le travail d’Exodus Privacy va au delà de ce kit et il est important de le soutenir ! Pour découvrir les actions de cette formidable association et y contribuer, c’est sur leur site web : https://exodus-privacy.eu.org/fr/page/contribute On souhaite un franc succès et une large diffusion à ce nouvel outil. Merci pour ça et pour toutes leurs initiatives !

un personnage vêtu de gris assis sur un banc est presque entièrement abrité derrière un parapluie gris. le banc est sur l'herbe, au bord d'un trottoir pavé
« Privacy » par doegox, licence CC BY-SA 2.0.




Piwigo, la photo en liberté

Nous avons profité de la sortie d’une nouvelle version de l’application mobile pour interroger l’équipe de Piwigo, et plus particulièrement Pierrick, le créateur de ce logiciel libre qui a fêté ses vingt ans et qui est, c’est incroyable, rentable.

 

 

 

Salut l’équipe de Piwigo ! Nous avons lu avec intérêt la page https://fr.piwigo.com/qui-sommes-nous

Moi je note que «Piwigo» c’est plus sympa que « PhpWebGallery », comme nom de logiciel. Enfin, un logiciel libre qui n’a pas un nom trop tordu. Qu’est-ce que vous pouvez nous apprendre sur Piwigo, le logiciel ?

Piwigo est un logiciel libre de gestion de photothèque. Il s’agit d’une application web, donc accessible depuis un navigateur web, que l’on peut également consulter et administrer avec des applications mobiles. Au-delà des photos, Piwigo permet d’organiser et indexer tout type de média : images, vidéos, documents PDF et autres fichiers de travail des graphistes. Originellement conçu pour les particuliers, il s’est au fil des ans trouvé un public auprès des organisations de toutes tailles.

 

Le logo de Piwigo, le logiciel

 

La gestation du projet PhpWebGallery démarre fin 2001 et la première version sortira aux vacances de Pâques 2002. Pendant les vacances, car j’étais étudiant en école d’ingénieur à Lyon et j’ai eu besoin de temps libre pour finaliser la première version. Le logiciel a tout de suite rencontré un public et des contributeurs ont rejoint l’aventure. En 2009, « PhpWebGallery » est renommé « Piwigo » mais seul le nom a changé, il s’agit du même projet.

Les huit premières années, le projet était entièrement bénévole, avec des contributeurs (de qualité) qui donnaient de leur temps libre et de leurs compétences. Le passage d’étudiant à salarié m’a donné du temps libre, vraiment beaucoup. Je faisais pas mal d’heures pour mon employeur mais en comparaison avec le rythme prépa/école, c’était très tranquille : pas de devoirs à faire le soir ! Donc Piwigo a beaucoup avancé durant cette période. Devenu parent puis propriétaire d’un appartement, avec les travaux à faire… mon temps libre a fondu et il a fallu faire des choix. Soit j’arrêtais le projet et il aurait été repris par la communauté, soit je trouvais un modèle économique viable et compatible avec le projet pour en faire mon métier. Si je suis ici pour en parler douze ans plus tard, c’est que cette deuxième option a été retenue.

En 2010 vous lancez le service piwigo.com ; un logiciel libre dont les auteurs ne crèvent pas de faim, c’est plutôt bien. Est-ce que c’est vrai ? Avez-vous trouvé votre modèle économique ?

 

Le logo de Piwigo, le service

 

Pour ce qui me concerne, je ne crève pas du tout de faim. J’ai pu rapidement retrouver des revenus équivalents à mon ancien salaire. Et davantage aujourd’hui. J’estime vivre très confortablement et ne manquer de rien. Ceci est très subjectif et mon mode de vie pourrait paraître « austère » pour certains et « extravagant » pour d’autres. En tout cas moi cela me convient 🙂

Notre modèle économique a un peu évolué en 12 ans. Si l’objectif est depuis le départ de se concentrer sur la vente d’abonnements, il a fallu quelques années pour que cela couvre mon salaire. J’ai eu l’opportunité de réaliser des prestations de dev en parallèle de Piwigo les premières années pour compenser la croissance lente des ventes d’abonnements.

Ce qui a beaucoup changé c’est notre cible : on est passé d’une cible B2C (à destination des individus) à une cible B2B (à destination des organisations). Et cela a tout changé en terme de chiffre d’affaires. Malheureusement ou plutôt « factuellement » nous plafonnons depuis longtemps sur les particuliers. Nos offres Entreprise quant à elles sont en croissance continue, sans que l’on atteigne encore de plafond. Nous avons donc décidé de communiquer vers cette cible. Piwigo reste utilisable pour des particuliers bien sûr, mais ce sont prioritairement les organisations qui vont orienter notre feuille de route.

Grâce à la réorientation de notre modèle économique, il a été possible de faire grossir l’équipe.

Donc on a Piwigo.org qui fournit le logiciel libre que chacun⋅e peut installer à condition d’en avoir les compétences, et Piwigo.com, service commercial géré par ton équipe et toi. Vous vous chargez de la maintenance, des mises à jour, des sauvegardes.

Qui est vraiment derrière Piwigo.com aujourd’hui ? Et combien de gens est-ce que ça fait vivre ?

Une petite équipe mêlant des salariés, dont plusieurs alternants, des freelances dans les domaines du support, de la communication, du design ou encore de la gestion administrative. Cela représente 8 personnes, certaines à temps plein, d’autres à temps partiel. J’exclus le cabinet comptable, même s’il y passe du temps compte tenu du nombre de transactions que les abonnements représentent…

Qu’est-ce qui est lourd ?

Certains aspects purement comptables de l’activité. La gestion de la TVA par exemple. Non pas le principe de la TVA mais les règles autour de la TVA. Nous vendons en France, dans la zone Euro et hors zone Euro : à chaque situation sa règle d’application des taxes. Les PCA (produits constatés d’avance) sont aussi une petite source de tracas qu’il a fallu gérer proprement. Jamais je n’aurais imaginé passer autant de temps sur ce genre de sujets en lançant le projet commercial.

Qu’est-ce qui est cool ?
Constater que Piwigo est leur principal outil de travail de nombreux clients. On comprend alors que certains choix de design, certaines optimisations de performances font pour eux une grande différence au quotidien.

 

Création d’un⋅e utilisateur⋅ice

 

Nous avons lancé depuis quelques semaines une série d’entretiens utilisateurs durant lesquels des clients nous montrent comment ils utilisent Piwigo et c’est assez génial de les voir utiliser voire détourner les fonctionnalités que l’on a développées.

D’un point de vue vraiment personnel, ce que je trouve cool c’est qu’un projet démarré sur mon temps libre pendant mes études soit devenu créateur d’emplois. Et j’espère un emploi « intéressant » pour les personnes concernées. Qu’elles soient participantes à l’aventure ou utilisatrices dans leur métier. Je crois vraiment au rôle social de l’entreprise et je suis particulièrement fier que Piwigo figure dans le parcours professionnel de nombreuses personnes.

Votre liste de clients https://fr.piwigo.com/clients est impressionnante…

Oui, je suis d’accord : ça claque ! et bien sûr tout est absolument authentique. Évidemment on n’affiche qu’une portion microscopique de notre liste de clients.

Recevez-vous des commandes spécifiques des gros clients pour développer certaines fonctionnalités ?

Pourquoi des « gros » ? Certaines entreprises « pas très grosses » ont des demandes spécifiques aussi. Bon, en pratique c’est vrai que certains « gros » ont l’habitude que l’outil s’adapte à leur besoin et pas le contraire. Donc parfois on adapte : en personnalisant l’interface quasiment toujours, en développant des plugins parfois. C’est moins de 5% de nos clients qui vont payer une prestation de développement. Vendre ce type de prestation n’est pas au cœur de notre modèle économique mais ne pas le proposer pourrait nuire à la vente d’abonnements, donc on est ouverts aux demandes.

Est-ce que vous refusez de faire certaines choses ?

D’un point de vue du développement ? Pas souvent. Je n’ai pas souvenir de demandes suffisamment farfelues… pardon « spécifiques » pour qu’on les refuse a priori. En revanche il y a des choses qu’on refuse systématiquement : répondre à des appels d’offre et autre « marchés publics ». Quand une administration nous contacte et nous envoie des « dossiers » avec des listes de questions à rallonge, on s’assure qu’il n’y a pas d’appel d’offre derrière car on ne rentrera pas dans le processus. Nous ne vendons pas assez cher pour nous permettre de répondre à des appels d’offre. Je comprends que les entreprises qui vendent des tickets à 50k€+ se permettent ce genre de démarche administrative, mais avec notre ticket entre 500€ et 4 000€, on serait perdant à tous les coups. Le « coût administratif » d’un appel d’offre est plus élevé que le coût opérationnel de la solution proposée. C’est aberrant et on refuse de rentrer là-dedans.

Bien que nous refusions de répondre à cette complexité administrative (très française), nous avons de nombreuses administrations comme clients : ministère, mairies, conseils départementaux, offices de tourisme… Comme quoi c’est possible (et légal) de ne pas gaspiller de l’énergie et du temps à remplir des dossiers.

Y a-t-il beaucoup de particuliers qui, comme moi, vous confient leurs photos ? Faites péter les chiffres qui décoiffent !

Environ 2000 particuliers sont clients de notre offre hébergée. Ils sont bien plus nombreux à confier leurs photos à Piwigo, mais ils ne sont pas hébergés sur nos serveurs. Notre dernière enquête en 2020 indiquait qu’environ un utilisateur sur dix était client de Piwigo.com [donc 90% des gens qui utilisent le logiciel Piwigo s’auto-hébergent ou s’hébergent ailleurs, NDLR] .

Si on élargit un peu le champ de vision, on estime qu’il y a entre 50 000 et 500 000 installations de Piwigo dans le monde. Avec une énorme majorité d’installations hors Piwigo.com donc. Difficile à chiffrer précisément car Piwigo ne traque pas les installations.

 

La page d’administration de Piwigo

 

Pour des chiffres qui « décoiffent », je dirais qu’on a fait 30% de croissance en 2020. Puis encore 30% de croissance en 2021 (merci les confinements…) et qu’on revient à notre rythme de croisière de +15% par an en 2022. Dans le contexte actuel de difficulté des entreprises, je trouve qu’on s’en sort bien !

Autre chiffre qui décoiffe : on n’a pas levé un seul euro. Aucun business angel, aucune levée de fonds auprès d’investisseurs. Notre croissance est douce mais sereine. Attention pour autant : je ne dénigre pas le principe de lever des fonds. Cela permet d’aller beaucoup plus vite. Vers le succès ou l’échec, mais beaucoup plus vite ! Rien ne dit que si c’était à refaire, je n’essaierais pas de lever des fonds.

Encore un chiffre respectable : Piwigo a soufflé sa vingtième bougie en 2022. Le projet a connu plusieurs phases et nous vivons actuellement celle de la professionnalisation. Beaucoup de projets libres s’arrêtent avant et disparaissent car ils ne franchissent pas cette étape. Si certains voient dans l’arrivée de l’argent une « trahison » de la communauté, je trouve au contraire que c’est sain et gage de pérennité. Lorsque les fondateurs d’un projet ont besoin d’un modèle économique viable pour payer leurs propres factures, vous pouvez être sûrs que le projet ne va pas être abandonné sur un coup de tête.

Est-ce que les réseaux sociaux axés sur la photographie concurrencent Piwigo ? On pense à Instagram mais aussi à Pixelfed, évidemment.

J’ai regardé rapidement ce qu’était Pixelfed. Ma conclusion au bout de quelques minutes : c’est un clone opensource à Instagram, en mode décentralisé.

Piwigo n’est pas un réseau social. Pour certains utilisateurs, Piwigo a perdu de son intérêt dès lors que Facebook et ses albums photos sont arrivés. Pour d’autres, Piwigo constitue au contraire une solution pour ceux qui refusent la centralisation/uniformisation telle que proposée par Facebook ou Google. Enfin pour de nombreux clients pro (photographes ou entreprises) Piwigo est un outil à usage interne de l’équipe communication pour organiser les ressources média qui seront ensuite utilisées sur les réseaux sociaux. Il faut comprendre que pour les chargés de communication d’un office de tourisme, mettre sa photothèque sur Facebook n’a aucun sens. Ils ou elles publient quelques photos sur Facebook, sur Instagram ou autres, mais leur photothèque est organisée sur leur Piwigo.

Bref, même si les premières années je me suis demandé si Piwigo était encore pertinent face à l’émergence de ces nouvelles formes de communication, je sais aujourd’hui que Piwigo n’est pas en concurrence frontale avec ces derniers mais qu’au contraire, l’existence de ces réseaux nécessite pour les marques/entreprises qu’elles organisent leurs photothèques. Piwigo est là pour les y aider.

Quelles sont les différences ?

La toute première des choses, c’est la temporalité. Les réseaux sociaux sont excellents pour obtenir une exposition forte et éphémère de votre « actualité ». À l’inverse, Piwigo va exceller pour vous permettre de retrouver un lot de photos parmi des centaines de milliers, organisées au fil des années. Piwigo permet de gérer son patrimoine photo (et autres médias) sur le temps long.

L’autre aspect important c’est le travail en équipe. Un réseau social est généralement conçu autour d’une seule personne qui administre le compte. Dans Piwigo, plusieurs administrateurs collaborent (à un instant T ou dans la durée) pour construire la photothèque : classification, indexation (tags, titre, descriptions…)

Enfin, certaines fonctionnalités n’ont tout simplement rien à voir. Par exemple, dans un réseau social le cœur de métier va être d’obtenir des likes. Dans un Piwigo, vous allez pouvoir mettre en place un moteur de recherche multicritères avec vos propres critères. Par exemple on a un client qui fabrique des matériaux acoustiques. Ses critères de recherche sont collection, coloris, lieu d’implantation… Cela n’aurait aucun sens sur l’interface uniformisée d’un Instagram.

Qui apporte des contributions à Piwigo ? Est-ce que c’est surtout la core team ?

Cela a beaucoup changé avec le temps. Et même ce qu’on appelle aujourd’hui « équipe » n’est plus la même chose que ce qu’on appelait « équipe » il y a 10 ans. Aujourd’hui, l’équipe c’est essentiellement celle du projet commercial. Pas uniquement mais quand même pas mal.

On a donc beaucoup de contributions « internes » mais ce serait trop simplificateur d’ignorer l’énorme apport de la communauté de contributeurs au sens large. Déjà parce que l’état actuel de Piwigo repose sur les fondations créées par une communauté de développeurs bénévoles. Ensuite parce qu’on reçoit bien sûr des contributions sous forme de rapports de bugs, des pull-requests mais aussi grâce à des bénévoles qui aident des utilisateurs sur les forums communautaires, les bêta-testeurs… sans oublier les centaines de traducteurs.

Petite anecdote dont je suis fier : Rasmus Lerdorf, créateur de PHP (le langage de programmation principalement utilisé dans Piwigo) nous a plusieurs fois envoyé des patches pour que Piwigo soit compatibles avec les dernières versions de PHP.

 

Quel est votre lien avec le monde du Libre ? (<troll>y a-t-il un monde du Libre ?</troll>)

Je ne sais pas s’il y a un « monde du libre ». Historiquement Les contributeurs sont d’abord des utilisateurs du logiciel qui ont voulu le faire évoluer. Je ne suis pas certain qu’il s’agisse de fervents défenseurs du logiciel libre.

Franchement je ne sais pas trop comment répondre à cette question. Je sais que Piwigo est une brique de ce monde du libre mais je ne suis pas sûr que l’on conscientise le fait de faire partie d’un mouvement global. Je pense qu’on est pragmatique plutôt qu’idéologique.

 

En tant que client, je viens de recevoir le mail qui annonce le changement de tarif. Pouvez-vous nous expliquer l’origine de cette décision ?

Là on est vraiment sur l’actualité « à chaud ». Le changement de tarif pour les nouveaux/futurs clients a fait l’objet d’une longue réflexion et préparation. Je dirais qu’on le prépare depuis 18 mois.

 

Si j’ai bien compris la clientèle particulière est un tout petit pourcentage de la clientèle de Piwigo.com ?

Les clients de l’ancienne offre « individuelle » représentent 30 % du chiffre d’affaires des abonnements pour 91% des clients. J’exclus les prestations de dev, qui sont exclusivement ordonnées par des entreprises. Donc « tout petit pourcentage », ça dépend du point de vue 🙂

Est-ce que l’offre de stockage illimité devient trop chère ?

En moyenne sur l’ensemble des clients individuels, on est à ~30 Go de stockage utilisé. La médiane est quant à elle de 5Go. Si la marge financière dégagée n’est pas folle, on ne perd pas d’argent pour autant, car nous avons réussi à ne pas payer le stockage trop cher. Pour faire simple : on n’utilise pas de stockage cloud type Amazon Web Services, Google Cloud ou Microsoft Azure. Sinon on serait clairement perdant.

Ceci est vrai tant qu’on propose de l’illimité sur les photos. Sauf que la première demande au support, devant toutes les autres, c’est : « puis-je ajouter mes vidéos ? », et cela change la donne. Hors de question de proposer de l’illimité sur les vidéos. De l’autre côté, on entend et on comprend la demande des utilisateurs concernant les vidéos. Donc on veut proposer les vidéos, mais il faut en parallèle introduire un quota de stockage.

Ensuite nous avions un souci de cohérence entre l’offre individuelle (stockage illimité mais photos uniquement) et les offres entreprise (quota de stockage et tout type de fichiers). La solution qui nous paraît la meilleure est d’imposer un quota pour toutes les offres, mais un quota généreux. L’offre « Perso » est à 50 Go de stockage, donc largement au-delà de la conso moyenne.

Enfin la principe de l’illimité est problématique. En 12 ans, la perception du grand public sur le numérique a évolué. Je parle spécifiquement de la consommation de ressources que le numérique représente. Le cloud, ce sont des serveurs dans des centres de données qui consomment de l’électricité, etc. En 2023, je pense que tout le monde a intégré le fait que nous vivons dans un monde fini. Ceci n’est pas compatible avec la notion de stockage infini. Je peux vous assurer que certains utilisateurs n’ont pas conscience de cette finitude.

Est-ce que des pros ont utilisé cette offre destinée aux particuliers pour «abuser» ?

Il y a des abus sur l’utilisation de l’espace de stockage, mais pas spécialement par des pros. On a des particuliers qui scannent des documents en haute résolution par dizaine de milliers pour des téraoctets stockés… On a des particuliers qui sont fans de telle ou telle star de cinéma et qui font des captures d’écran chaque seconde de chaque film de cet acteur. Ne rigolez pas, cela existe.

En revanche on avait un soucis de positionnement : l’offre « individuelle » n’était pas très appropriée pour les photographes pros mais l’offre entreprise était trop chère. On a maintenant des offres mieux étagées et on espère que cela sera plus pertinent pour ce type de client.

Enfin on a des entreprises qui essaient de prendre l’offre individuelle en se faisant passer pour des particuliers. Et là on est obligés de faire les gendarmes. On a même détecté des « patterns » de ses entreprises et on annulait les commandes « individuelles » de ces clients. J’en avais personnellement un petit peu ras le bol 🙂

Les nouvelles offres, même « Perso » sont accessibles même à des multinationales. Évidemment, les limites qu’on a fixées devraient naturellement les orienter vers nos offres Entreprise (nouvelle génération) voire VIP.

 

Est-ce qu’il s’agissait d’une offre qui se voulait temporaire et que vous avez laissé filer parce que vous étiez sur autre chose ?

 

Pendant 12 ans ? Non non, le choix de proposer de l’illimité en 2010 était réfléchi et « à durée indéterminée ». Les besoins et les possibilités et surtout les demandes ont changé. On s’adapte. On espère ne pas se tromper et si c’est le cas on fera des ajustements.

L’important c’est de pas mettre nos clients au pied du mur : ils peuvent renouveler sur leur offre d’origine. On a toujours proposé cela et on ne compte pas changer cette règle. C’est assez unique dans notre secteur d’activité mais on y tient.

Nous avons vu que votre actualité c’était la nouvelle version de Piwigo NG. Je crois que vous avez besoin d’aide. Vous pouvez nous en parler ?

Nous avons plusieurs actualités et effectivement côté logiciel, c’est la sortie de la version 2 de l’application mobile pour Android. Piwigo NG (comme Next Generation) est le résultat du travail de Rémi, qui travaille sur Piwigo depuis deux ans. Après avoir voulu faire évoluer l’application « native » sans succès, il a créé en deux semaines un prototype d’application mobile en Flutter. Ce qu’il avait fait en deux semaines était meilleur que ce que l’on galérait à obtenir avec l’application native en plusieurs mois. On a donc décidé de basculer sur cette nouvelle technologie. Un an après la sortie de Piwigo NG, Rémi sort une version 2 toujours sur Flutter mais avec une nouvelle architecture « plus propice aux évolutions ». Le fameux « il faut refactorer tous les six mois », devise des développeurs Java.

En effet nous avons besoin d’aide pour bêta-tester cette version 2 de Piwigo NG. Plus nous avons de retours, plus nous pouvons la stabiliser.

Pour aller plus loin




Contra Chrome : une BD décapante maintenant en version française

Il y a loin de la promotion du navigateur Chrome à ses débuts, un outil cool au service des internautes, au constat de ce qu’il est devenu, une plateforme de prédation de Google, c’est ce que permet de mesurer la bande dessinée de Leah,

Contra Chrome est un véritable remix de la BD promotionnelle originale (lien vers le document sur google.com) que Leah Elliott s’est évertuée à détourner pour exposer la véritable nature de ce navigateur qui a conquis une hégémonie au point d’imposer ses règles au Web.

Nous avons trouvé malicieux et assez efficace son travail qui a consisté à conserver les images en leur donnant par de nouveaux textes un sens satirique et pédagogique pour démontrer la toxicité de Google Chrome.

La traduction qui est aujourd’hui disponible a été effectuée par les bénévoles de Framalang et par Calimero (qui a multiplié sans relâche les ultimes révisions). Voici en même temps que l’ouvrage, les réponses que Leah a aimablement accepté de faire à nos questions.

 

Bonjour, peux-tu te présenter brièvement pour nos lecteurs et lectrices…
Je m’appelle Leah et je suis autrice de bandes dessinées et artiste. J’ai une formation en art et en communication, et je n’ai jamais travaillé dans l’industrie technologique.

Est-ce que tu te considères comme une militante pour la préservation de la vie privée ?

Eh bien, le militantisme en matière de vie privée peut prendre de nombreuses formes. Parfois, c’est être lanceur d’alerte en fuitant des révélations, parfois c’est une bande dessinée, ou la simple installation d’une extension de navigateur comme Snowflake, avec laquelle vous pouvez donner aux dissidents des États totalitaires un accès anonyme à un internet non censuré.

Dans ce dernier sens, j’espère avoir été une militante avant de créer Contra Chrome, et j’espère l’être encore à l’avenir.

Comment t’es venue l’idée initiale de réaliser Contra Chrome ?

Ça s’est fait progressivement.

Lorsque la bande dessinée Chrome de Scott McCloud est sortie en 2008, je n’avais qu’une très vague idée du fonctionnement d’Internet et de la façon dont les entreprises récoltent et vendent mes données. Je me figurais essentiellement que je pouvais me cacher dans ce vaste chaos. Je pensais qu’ils récoltaient tellement de données aléatoires dans le monde entier qu’ils ne pouvaient pas espérer me trouver, moi petite aiguille dans cette botte de foin planétaire.

Et puis les révélations de Snowden ont éclaté, et il a dit : « Ne vous y trompez pas », en dévoilant tous les ignobles programmes de surveillance de masse. C’est alors que j’ai compris qu’ils ne se contenteraient pas de moissonner le foin, mais aussi des aiguilles.

Depuis, j’ai essayé de m’éduquer et d’adopter de meilleurs outils, découvrant au passage des logiciels libres et open source respectueux de la vie privée, dont certains des excellents services proposés par Framasoft.

Lorsque j’ai retrouvé la bande dessinée de McCloud quelque temps après les révélations de Snowden, j’ai soudain réalisé qu’il s’agissait d’un véritable trésor, il ne manquait que quelques pages…

Qu’est-ce qui t’a motivée, à partir de ce moment ?

L’indignation, principalement, et le besoin de faire quelque chose contre un statu quo scandaleux. Il y a un décalage tellement affreux entre la société que nous nous efforçons d’être, fondée sur des valeurs et les droits de l’homme, et les énormes structures d’entreprises barbares comme Google, qui récoltent agressivement des masses gigantesques de données personnelles sans jamais se soucier d’obtenir le consentement éclairé de l’utilisateur, sans aucune conscience de leurs responsabilités sur les retombées individuelles ou sociétales, et sans aucun égard pour les conséquences que cela a sur le processus démocratique lui-même.

En lisant Shoshana Zuboff, j’ai vu comment ce viol massif de données touche à la racine de la liberté personnelle de chacun de se forger sa propre opinion politique, et comment il renforce ainsi les régimes et les modes de pensée autoritaires.

Trop de gens n’ont aucune idée de ce qui est activé en continu 24 heures sur 24 au sein de leur propre maisons intelligente et sur les téléphones de leurs enfants, et je voulais contribuer à changer ça.

Certains aspects de la surveillance via le navigateur Chrome sont faciles à deviner, cependant ta BD va plus en profondeur et révèle la chronologie qui va des promesses rassurantes du lancement à la situation actuelle qui les trahit. Est-ce que tu as bénéficié d’aide de la part de la communauté des défenseurs de la vie privée sur certains aspects ou bien as-tu mené seule ton enquête ?

Comme on peut le voir dans les nombreuses annotations à la fin de la bande dessinée, il s’agit d’un énorme effort collectif. En fin de compte, je n’ai fait que rassembler et organiser les conclusions de tous ces militants, chercheurs et journalistes. J’ai également rencontré certains d’entre eux en personne, notamment des experts reconnus qui ont mené des recherches universitaires sur Google pendant de nombreuses années. Je leur suis très reconnaissante du temps qu’ils ont consacré à ma bande dessinée, qui n’aurait jamais existé sans cette communauté dynamique.

Pourquoi avoir choisi un « remix » ou plutôt un détournement de la BD promotionnelle, plutôt que de créer une bande dessinée personnelle avec les mêmes objectifs ?

En relisant la BD pro-Google de McCloud, j’ai constaté que, comme dans toute bonne bande dessinée, les images et le texte ne racontaient pas exactement la même histoire. Alors que le texte vantait les fonctionnalités du navigateur comme un bonimenteur sur le marché, certaines images me murmuraient à l’oreille qu’il existait un monde derrière la fenêtre du navigateur, où le contenu du cerveau des utilisateurs était transféré dans d’immenses nuages, leur comportement analysé par des rouages inquiétants tandis que des étrangers les observaient à travers un miroir sans tain.

Pour rendre ces murmures plus audibles, il me suffisait de réarranger certaines cases et bulles, un peu comme un puzzle à pièces mobiles. Lorsque les éléments se sont finalement mis en place un jour, ils se sont mis à parler d’une voix très claire et concise, et ont révélé beaucoup plus de choses sur Chrome que l’original.

Lawrence Lessig a expliqué un jour que, tout comme les essais critiques commentent les textes qu’ils citent, les œuvres de remixage commentent le matériel qu’elles utilisent. Dans mon cas, la BD originale de Chrome expliquait prétendument le fonctionnement de Chrome, et j’ai transformé ce matériel en une BD qui rend compte de son véritable fonctionnement.

Est-ce que tu as enregistré des réactions du côté de l’équipe de développement de Chrome ? Ou du côté de Scott Mc Cloud, l’auteur de la BD originale ?

Non, c’est le silence radio. Du côté de l’entreprise, il semble qu’il y ait eu quelques opérations de nettoyage à la Voldemort : Des employés de Google sur Reddit et Twitter, se sont conseillé mutuellement de ne pas créer de liens vers le site, de ne pas y réagir dans les fils de discussion publics, exigeant même parfois que les tweets contenant des images soient retirés.

Quant à Scott, rien non plus jusqu’à présent, et j’ai la même curiosité que vous.

Ton travail a suscité beaucoup d’intérêt dans diverses communautés, de sorte que les traductions plusieurs langues sont maintenant disponibles (anglais, allemand, français et d’autres à venir…). Tu t’attendais à un tel succès ?

Absolument pas. Le jour où je l’ai mis en ligne, il n’y a eu aucune réaction de qui que ce soit, et je me souviens avoir pensé : « bah, tu t’attendais à quoi d’autre, de toutes façons ? ». Je n’aurais jamais imaginé le raz-de-marée qui a suivi. Tant de personnes proposant des traductions, qui s’organisaient, tissaient des liens. Et tous ces messages de remerciement et de soutien, certaines personnes discutent de ma BD dans les écoles et les universités, d’autres l’impriment et la placent dans des espaces publics. Ça fait vraiment plaisir de voir tout ça.

Il y a une sorte de réconfort étrange dans le fait que tant d’êtres humains différents, de tous horizons et de tous les coins de la planète, partagent ma tristesse et mon horreur face au système du capitalisme de surveillance. Cette tristesse collective ne devrait pas me rendre heureuse, et pourtant elle me donne le courage de penser à un avenir très différent.

Quel navigateur utilises-tu au lieu de Chrome ? Lequel recommanderais-tu aux webnautes soucieux de préserver leur vie privée ?

Je suis peut-être allée un peu loin désormais, mais je pratique ce que je prêche dans la BD : pour 95 % de ma navigation, j’utilise simplement le navigateur Tor. Et lorsque Tor est bloqué ou lorsqu’une page ne fonctionne pas correctement, j’utilise Firefox avec quelques modifications et extensions pour améliorer la confidentialité.

Donc généralement, que je cherche des recettes de muffins, que je vérifie la météo ou que je lise les nouvelles, c’est toujours avec Tor. Parce que j’ai l’impression que le navigateur Tor ne peut prendre toute sa valeur que si suffisamment de personnes l’utilisent en même temps, pour qu’un brouillard suffisamment grand de non-sens triviaux entoure et protège les personnes vulnérables dont la sécurité dépend actuellement de son utilisation.

Pour moi, c’est donc une sorte de devoir civique en tant que citoyenne de la Terre. De plus, je peux parcourir mes recettes de muffins en ayant la certitude qu’il ne s’agit que d’un navigateur et non d’un miroir sans tain.

Merci Leah et à bientôt peut-être !


Cliquez sur l’image ci-dessous pour accéder à la version française de Contra chrome

 




Gao & Blaze : le jeu mobile immersif qui utilise et respecte vos données personnelles

Nous avons été contacté·es récemment par l’équipe de la coopérative « La Boussole », pour nous parler d’un tout nouveau projet : le jeu Gao & Blaze.

Gao & Blaze, est un jeu libre et gratuit pour smartphone, qui permet de prendre conscience et agir sur la protection de vos données et le respect de votre vie privée. Au fur et à mesure du jeu, vous réalisez l’ampleur des données personnelles et sociales qui peuvent être divulguées avec l’installation d’une simple appli (mais sans collecte cachée de données, promis !).

Bel exemple d’éducation populaire aux enjeux du numérique, cet ovni dans le monde du jeu vidéo nous a grandement intéressé·es. Nous avons donc posé quelques questions à l’équipe de la coopérative « La Boussole ».

 

Bonjour l’équipe de la coopérative « La Boussole » ! À Framasoft, on vous connaît déjà un peu depuis quelques années, mais pourriez-vous vous présenter aux lecteur⋅ices du Framablog ?

Bonjour à Framasoft et merci pour cet espace ! Nous sommes plein de choses, mais avant tout 3 :

  • Une coopérative, c’est-à-dire que nous avons fait le choix de créer une structure qui appartient uniquement à celles et ceux qui y travaillent (pas d’actionnaires, pas de patron·nes).
  • D’éducation populaire, c’est-à-dire que nous voulons rendre certaines connaissances issues de la recherche académique (nous gardons un pied dans la recherche et l’université) accessibles au plus grand nombre sans que les bagages éducatifs soient un frein.
  • Et nous portons des valeurs d’émancipation, c’est-à-dire que nous avons pour ambition de donner du pouvoir d’agir aux individus et aux collectifs : nous croyons que le savoir est un pouvoir fort et voulons partager nos savoirs, autour de l’informatique libre, autour de la lutte contre les discriminations et sur les formes de travail alternatives.

Super ! Vous pouvez nous en dire un peu plus sur les types d’actions que vous réalisez ?

Principalement nous réalisons des projets de recherche autour de nos thématiques mais également des formations courtes pour donner des outils pratiques. Nous explorons aussi lors d’ateliers pédagogiques des nouvelles formes de transmettre des connaissances car nous nous préoccupons souvent de savoir comment nos savoirs académiques peuvent avoir un impact concret et positif sur les gens que nous rencontrons. Nous voyons aussi comment dans des domaines comme le numérique la concentration des savoirs et savoir-faire peut créer d’importantes inégalités de pouvoir.

Vous nous avez contactés récemment au sujet d’un projet un peu particulier : Gao & Blaze. Mais… c’est quoi ?!

Nous sommes parti·e·s d’une frustration : nous avions passé du temps et mis de l’énergie à essayer de convaincre du bien-fondé de la protection des données interpersonnelles, de sensibiliser aux questions liées à la sécurité informatique, mais le constat était que beaucoup de gens étaient d’accord avec nous sans pour autant changer leurs pratiques dans les faits.

Dit de manière brutale : nous voulions savoir comment faire pour que des gens aient envie d’aller à des chiffrofêtes car il nous semblait que seuls des gens déjà sensibilisés y participaient, et nous avions l’ambition d’aller chercher plus loin.

Bien évidemment, le panorama a évolué au cours des dernières années de différentes manières notamment avec des scandales de plus en plus audibles et relayés, mais également des initiatives enthousiasmantes qui ont marqué un avant et un après dans les usages courants (nous pensons notamment à votre campagne Dégooglisons internet). Pourtant, il nous semblait y avoir un chaînon manquant autour du « passage à l’action ». Nous avons donc voulu proposer un jeu qui utilise l’émotion avant d’utiliser la raison – autrement dit qui passe par l’expérience personnelle avant la connaissance concrète. C’est là que nous avons eu l’idée d’imaginer un jeu pour donner à voir les conséquences concrètes de l’exploitation et l’usage des données de Madame et Monsieur Tout-le-monde.

Cette frustration nous trottait à l’esprit quand nous avions vu un appel à projet de recherche sur la protection des données. Nous avions proposé un projet qui n’entrait pas dans les cases, mais nous avons réussi à monter un partenariat qui nous a permis de créer un ovni. À notre connaissance c’est le premier jeu autour de la sensibilisation à la protection des données interpersonnelles sur Android.

C’est un ovni car nous avions 4 conditions non négociables :

  • Exploiter le système des permissions Android pour proposer une expérience immersive
  • Utiliser les données des joueuses et des joueurs, tout en respectant ces données.
  • Faire un jeu 100% en logiciel libre sans utiliser des interfaces intermédiaires obscures (le jeu est en React Native)
  • Faire un vrai jeu : c’est-à-dire que nous voulions que les gens y jouent pour l’intérêt ludique et que ce ne soit pas le « volet sensibilisation » qui prenne le dessus.

C’est qui Gao et Blaze ? Des personnages ?

Exactement ! Gao est un chat, appartenant à Blaze. Il s’inspire de son chat et l’a converti en l’icône des Gao Games. Les Gao games sont un univers de mini-jeux gratuits sur smartphone autour duquel toute communauté s’est construite. Blaze, est le dev principal de ces jeux. Toute ressemblance avec certains petits jeux mignons, « gratuits » et très célèbres est purement accidentelle… 0:o)

C’est aussi et avant tout le chat de Blaze, le développeur des jeux, qui l’a rendu célèbre.

D’autres personnages et non des moindres, font partie de la communauté, Alex, Nikki, Masako, Amin, Ally…. nous vous laissons les découvrir en allant leur parler !

La question des données personnelles, vous pensez que ça intéresse réellement les jeunes ? Est-ce que la vie privée ce n’est pas « Un problème de vieux cons ? »

Question intéressante, nous pouvons rétorquer par facilité qu’en 2010 c’était une question de « vieux cons », mais c’était il y a déjà 12 ans ! Plus sérieusement, nous constatons que beaucoup d’eau a coulé sous les ponts depuis le début des années 2010 en termes de révélations (E. Snowden, Wikileaks, Cambridge Analytica, Pegasus…), en termes d’ampleur des scandales, de leur couverture médiatique, mais aussi du côté de la marche triomphante des multinationales des données dans la prédation et l’exploitation des données des individus.
Il y a également de nouveaux freins légaux (comme le RGPD, par exemple), et une jeune génération qui a ses propres stratégies d’appropriation et d’usage des technologies numériques…

Nous croyons que l’intérêt pour la vie privée est là, simplement qu’il se configure de nouvelles façons. Avec Gao&Blaze nous tentons d’apporter une réponse à la demande et aux questionnements d’un public peu expert et réfractaire aux approches classiques de sensibilisation.

Parlons maintenant des licences du jeu : sous quelle(s) licence(s) est publié le jeu, et surtout… Pourquoi ?

La question des licences a mérité un peu de réflexion, car un jeu vidéo présente la particularité de mêler plein de composantes différentes : code, œuvres graphiques, dialogues, musiques… Certaines licences (comme la GPL par exemple) sont conçues pour du code informatique, et conviendraient pas vraiment pour une illustration, par exemple.

Pour essayer de couvrir tous ces usages, Gao&Blaze est donc diffusé sous licence GNU AGPL 3.0 pour le code et sous licence Creative Commons BY-SA 4.0 pour les autres créations. Il embarque aussi des polices d’écriture et musiques sous licences tierces compatibles.

Vous n’avez pas peur de vous faire « voler » les innombrables heures de travail que vous avez passées en développement ?

C’est une vraie question !

En premier lieu, nous concevons notre création comme une contribution aux biens communs, et en soi, ça ne se « possède » pas – ça ne peut donc pas se voler.

En revanche, il existe deux risques auxquels nous avons pensé :

  • La prédation des biens communs pour en faire des biens privés. Pour un logiciel, ça pourrait être le fait de modifier légèrement le code, puis d’en faire un logiciel privateur. Mais ce sont aussi des choses qui arrivent dans d’autres domaines : privatiser des biens qui bénéficient à tous les êtres vivants (l’eau, l’air, les forêts…) au profit de quelques uns, etc.
  • L’usurpation, qui consisterait à respecter « à la marge » la licence, mais à s’approprier le travail de création qui a été fait (en faisant croire plus ou moins explicitement qu’une autre personne serait l’autrice du jeu). Un exemple de ça serait de reprendre le jeu tel quel, et remplacer tous les logos et mentions visibles des autrices et auteurs par ceux de quelqu’un d’autre, et se contenter de nous citer de façon obscure, avec une petite phrase en caractère 6 au fin fond d’un menu.

Une idée reçue est que les licences libres ne protègent pas bien les œuvres et/ou les autrices/auteurs mais c’est faux. Les licences que nous avons choisies protègent normalement de ces deux risques car :

  • Elles sont contaminantes, c’est-à-dire qu’elles obligent à repartager les modifications et travaux dérivés sous des licences similaires. On ne peut donc pas se les approprier en faisant de la prédation, on ne peut que permettre de nouvelles contributions aux biens communs.
  • Elles peuvent protéger efficacement de l’usurpation. C’est un dispositif juridique méconnu, mais il faut savoir que des licences comme la GNU AGPL permettent l’ajout de « termes additionnels » (qui doivent rester en conformité avec la licence). Nous avons utilisé ces termes additionnels pour nous prémunir de toute tentative de maquillage / « re-branding » du jeu.

Le seul risque qui existe serait que des gens créent une version dérivée avec laquelle nous serions en désaccord éthiquement, mais bon, c’est la vie. Dans le fond, créer des œuvres libres implique aussi de changer de point de vue : même si nous avons une parenté sur l’œuvre, ce n’est pas « notre » bébé, c’est le bébé de tout le monde. Mais ça tombe bien, ça fait potentiellement plus de bonnes volontés pour s’en occuper. 🙂

Quel rôle joue la MAIF dans votre projet ? Partenariat financier ou davantage ?

La MAIF est un assureur militant de poids et nous avons collaboré avec deux structures satellites de ce géant de l’assurance : la Fondation MAIF pour la recherche, et l’association Prévention MAIF dédiée aux actions de prévention. Ces deux structures non-lucratives ont co-financé avec nous la partie production et la partie recherche, et nous avons eu le plaisir d’avoir des échanges enrichissants pour consolider le projet et qu’il voie le jour.

Impossible de dire que l’engagement n’était que financier : les structures de la MAIF étaient intimement convaincues de la pertinence de la démarche et de l’urgence sociétale du sujet. Ils tenaient à ce que ce projet se fasse sous forme de logiciel libre mais qu’il ne puisse pas être approprié par d’autres.

Merci pour cet impressionnant travail ! 🙂 Quelles sont les prochaines étapes et vos attentes vis-à-vis de Gao & Blaze ?

C’est le cas de le dire ! C’était assez fou de créer un studio de jeu vidéo éphémère, de vouloir avancer masqué·e·s avec un jeu visuellement très mainstream, et pourtant codé « en dur », alors même que la production logicielle n’est pas notre cœur de métier.
La suite est la partie recherche de ce projet ! Nous avons besoin qu’il soit joué jusqu’au bout, nous avons envie de comprendre et constater comment oui ou non notre pari de sensibiliser à la protection des données via le jeu était pertinent ou pas.

Le jeu demande au fur et à mesure différentes autorisations.

Et pour vos autres projets (on se doute que vous en avez !) : quels sont-ils ? Quels sont vos espoirs ? Comment peut-on vous aider ?

Nous continuons dans nos projets de recherche (autour des formes de sensibilisation) et de formations auprès d’autres publics. Aujourd’hui nous réfléchissons à la sensibilisation aux questions de la vie privée pour des personnes peu ou pas lettrées qui pourtant sont contraintes à l’utilisation de téléphones portables.
Nous avons aussi d’autres chantiers académiques car il est important pour nous de nous maintenir à la page, de lire et de produire des recherches au long cours. Une participation à projet de documentaire sur les low-tech (basses-technologies) est dans les cartons et nous vous en parlerons plus tard quand il sera plus avancé !

Une question traditionnelle pour conclure : quelle est la question que l’on ne vous a pas posée, à laquelle vous auriez aimé répondre ? Et quelle serait-votre réponse, tant qu’à faire ! 🙂

Nous aurions voulu que vous nous demandiez si nous avons choisi exprès le 30 novembre pour lancer le jeu car c’est la journée mondiale de la sécurité informatique. Nous vous dirions que oui, nous avions tout savamment calculé 😉
Ou peut-être une autre question sur les autres personnages, surtout Nikki, hackeuse badass mais pas très genrée, ou sur Alex, une femme noire qui commence « Madame Tout-le-monde » et finit héroïne. Nous voulions fuir certaines caricatures et avions envie de personnages vraisemblables mais peu courants dans le monde du jeu vidéo.

Merci infiniment !

 

Liens utiles

 




Castopod : la voix du fédivers

Plus de soixante-quinze millions de podcasts sont téléchargés chaque mois dans notre pays par plus de douze millions de personnes.
Qui les fait ? Qui les écoute ? Nous avons interrogé Benjamin Bellamy, co-créateur de Castopod —en audio, s’il vous plaît.

Origami oiseau réalisé avec une feuille portant des logos de Castopod; posé sur un casque audio
Illustration CC-BY-SA Benjamin Bellamy

La transcription de l’entretien

 

Bonjour ! Selon une enquête Médiamétrie sortie en décembre 2022 « Les chiffres clés de la consommation de podcasts en France », plus de soixante-quinze millions de podcasts sont téléchargés chaque mois dans notre pays par plus de douze millions de personnes. C’est donc un phénomène qui a conquis toute la Gaule. Toute, pas tout à fait puisqu’il reste au moins un indi… irréductible, voilà, je commence à bafouiller, c’est bien, qui est passé à côté c’est-à-dire moi.

Aujourd’hui nous avons eu l’idée d’interviewer Benjamin qui, lui, est très impliqué dans le monde du podcast et pour lui faire honneur nous faisons donc cet entretien en audio, ce qui n’est pas l’habitude dans le Framablog.

Benjamin, est-ce que tu peux te présenter ?

 

Oui, bien sûr, Frédéric. Bonjour. Donc je m’appelle Benjamin Bellamy.

En deux mots je suis né longtemps avant les réseaux sociaux mais après les cartes perforées et tout petit je suis tombé dans la marmite informatique.
J’écoute des podcasts depuis pas mal de temps et il y a deux ans avec trois associés j’ai créé une société qui y est exclusivement consacrée, Ad Aures.

 

Est-ce que tu peux présenter Castopod ? C’est quoi ? Un logiciel, une plate-forme, un oiseau, une fusée ?

 

Castopod qui donc est développée par Ad Aures, c’est un peu tout ça à la fois.
C’est d’abord un logiciel codé en PHP qui permet à toutes et à tous d’héberger plusieurs podcasts. Une fois en place, c’est-à-dire cinq minutes après avoir dézippé le paquet et lancé l’assistant d’installation c’est une plateforme d’hébergement de podcasts multipodcasts multi-utilisatrices multi-utilisateurs et enfin peu de gens le savent mais en imprimant le code source de Castopod sur une feuille A4 on obtient un superbe oiseau.

Origami papillon réalisé avec une feuille portant des logos de Castopod, posé sur des fleurs
Illustration CC-BY-SA Benjamin Bellamy

 

Pour la fusée en revanche j’avoue on est super en retard et rien n’est prêt.

Enfin, plus sérieusement, Castopod permet à tout le monde de mettre des podcasts en ligne afin qu’ils soient disponibles sur n’importe quelle plateforme d’écoute donc ça peut être évidemment Apple Podcast, Google Podcast, Deezer, Spotify, Podcast-Addict, PostFriends, Overcast,… Il y en a plein d’autres, donc vraiment partout. Castopod apporte tout ce dont on a besoin donc de la gestion de fichiers sonores MP3 évidemment à la gestion des métadonnées, des titres, des descriptions, la génération du fameux RSS, l’export de clips vidéo à partager sur les réseaux sociaux, les mesures d’audience etc.

 

Et d’autre part, Castopod est adapté tout autant aux podcastrices et aux podcasteurs en herbe qu’aux professionnels les plus chevronnés puisque avec une seule installation on peut avoir autant de podcasts qu’on veut autant de comptes utilisateurs qu’on veut et enfin Castopod est open source, libre et gratuit, et il promeut et intègre des initiatives ouvertes telles que celles de Podcasting 2.0 qui permet entre autres la gestion de transcription et de sous-titrage de liens de financement de chapitres de géolocalisation de contenu de gestion des intervenants et de commentaires inter-plateforme et encore plein d’autres choses.

 

Qu’est-ce qui t’a poussé à lancer Casopod ?

 

Qu’est-ce qui m’a poussé à lancer Castopod, tu veux dire : qui m’a poussé à lancer Castopod ? D’une certaine manière c’est Framasoft.
En fait en mars 2019 alors que je cherchais une plateforme de podcasts compatible avec le fédivers j’ai contacté Framasoft pour savoir si vous aviez pas ça dans les tuyaux. Naïvement j’étais persuadé que la réponse serait « ben oui, évidemment » et là la douche froide : « non pas du tout ».

Et à ce moment-là Chocobozzz m’avait expliqué qu’avec les développements de Peertube et Mobilizon qui avaient été lancés un petit peu avant en décembre 2018 Framasoft n’avait pas le temps de se consacrer à un autre projet.

Heureuse coïncidence, à ce moment-là Ludovic Dubost le créateur de Xwiki m’a raconté comment il avait obtenu un financement de NLnet pour CryptPad. Donc j’ai déposé un dossier qui a été accepté immédiatement et qui en plus de nous faire très plaisir nous a confortés quant à la pertinence du projet.

 

Les podcasts m’ont l’air d’être gratuits dans la majorité des cas. Quel est le modèle économique ? Comment est-ce qu’ils en vivent, les gens ?

 

Il y a plusieurs modèles économiques du podcast.

Déjà effectivement il est important de noter qu’aujourd’hui quatre-vingt-dix-neuf pour cent des podcasts n’ont pas de modèle au sens capitaliste du terme, ce qui ne veut pas pour autant dire qu’ils sont gratuits.

Les podcastrices et les podcasteurs se rémunèrent de façon indirecte par le plaisir que ça procure, pour la promotion d’un autre produit ou service, pour l’exposition médiatique, etc. et quant au pourcent restant… Il existe plein de manières de gagner de l’argent.

On peut vendre un abonnement, encourager ses auditrices et ses auditeurs à donner des pourboires, on peut gagner des bitcoins par seconde d’écoute, on peut lire de la publicité, on peut produire un podcast de marque, on peut insérer automatiquement des spots publicitaires sonores, on peut afficher de la publicité à l’écran… par exemple chez Ad Aures notre spécialité c’est l’affichage publicitaire de recommandations contextuelles donc sans cookie ni profilage de l’internaute.

 

Et quel est le modèle économique de Castopod, alors ? Si je te dis que la société Ad Aures est l’équivalent de Canonical pour Ubuntu, est-ce que tu le prends mal ?

 

 

En fait c’est plutôt flatteur. On n’a pas du tout la prétention de devenir le Canonical du podcast même si effectivement on peut y voir des similitudes.
Pour répondre à ta question comme je l’ai laissé entendre plus tôt Castopod a bénéficié d’une subvention européenne qui a permis de financer le démarrage du développement. Ad Aures, la société que j’ai créée avec mes associés a également financé une grosse part du développement.

On compte sur les contributions de toutes celles et ceux qui souhaitent qu’on puisse continuer à maintenir et à faire grandir Castopod au travers de la plateforme Open Collective et enfin à on lance à l’heure où on parle tout juste d’une offre d’hébergement payante clés en main qui va donc permettre à toutes et à tous d’utiliser Castopod sans avoir à s’occuper du moindre aspect technique de l’hébergement.

 

On se rapproche plutôt du modèle de Piwigo, alors ?

 

Euh, exactement, ouais.

 

Alors la question qui pique. Moi je te connais, on s’est rencontrés, euh, il n’y a pas si longtemps que ça, au salon Open-Source Experience et je te connais comme un vrai libriste très engagé… et tu proposes de mettre de la pub sur les «postcasses» des gens ! J’arriverai jamais à prononcer «podcast» correctement ! Alors est-ce que la pub c’est compatible avec ton engagement libriste ?

 

Alors je vois pas pourquoi ça ne serait pas parce que en fait publicité et open source, ces deux concepts ont absolument rien à voir, même si je comprends ce que tu veux dire.

Personnellement, moi, je considère que la publicité en soi déjà ce n’est pas sale et c’est pas honteux et… Ce qui lui a donné une mauvaise réputation c’est le profilage à outrance des internautes est ça ouais c’est pas terrible, je suis d’accord mais justement nous ce qu’on propose c’est des publicités qui sont non invasives sans profilage sans cookie, pertinentes parce que en relation directe avec le contenu qui les héberge et ça permet d’offrir une rémunération à celles et à ceux qui produisent les contenus.

 

Chez nous il n’y a pas de pub pour le tout dernier jeu super addictif ou le top dix des choses qu’on ignorait pouvoir faire avec un cure-dent et un balai de chiottes.
Nous on va plutôt mettre en avant un bouquin en lien direct avec les métadonnées et avec le contenu sonore du podcast grâce au concept que notre moteur d’analyse sémantique aura détecté.

Alors d’un point de vue pratique comment est-ce qu’on fait pour avoir des podcasts dans son smartphone sans blinder sa mémoire ? Parce que moi j’oublie pas que je suis toujours à court de mémoire.

 

Eh eh, c’est là que que je vois qu’effectivement tu n’es pas un expert du podcast parce que un podcast en moyenne c’est quarante minutes.

 

Pour avoir une bonne qualité, voire même une très bonne qualité il faut compter 192 kilobits par seconde. Ce qui fait que un bon gros podcast ça fait moins de 100 méga-octets. Si en plus tu considères que aujourd’hui on est connecté la plupart du temps à Internet du coup pour écouter un podcast il n’y a pas nécessairement besoin de le pré-télécharger. On se rend vite compte que l’espace de stockage nécessaire c’est pas vraiment le souci.

OK, alors moi j’ai un autre problème quand est-ce que les gens ont le temps d’écouter des podcasts ? En faisant autre chose en même temps ?

 

Bah ça c’est la magie du podcast. Le podcast il laisse les mains et les pieds et les yeux totalement libres. Si tu fais le bilan d’une journée, en fait, tu te rends compte que les occasions elles sont super nombreuses.

Tu as le petit-déj, dans ta voiture, dans les transports, en faisant du sport, en attendant un rendez-vous, en faisant son ménage. Personnellement je ne fais plus la vaisselle sans mon podcast.

 

OK, mais le temps d’une vaisselle suffit pour écouter un podcast ? C’est quoi la durée idéale d’un podcast ?

 

Alors… J’ai envie dire déjà ça dépend de ta dextérité à faire la vaisselle. Peut-être que la mienne est pas au top et que justement comme j’écoute des podcasts, eh bien, je ne progresse pas beaucoup. La durée idéale d’un podcast, ben, c’est un peu comme la longueur idéale des jambes, c’est quand elles touchent bien le sol. C’est affaire de contexte parce que si euh les statistiques font état donc d’une durée moyenne de quarante minutes il y a tout plein de circonstances pour écouter un podcast. Donc en fait il y a plein de durées idéales.

Le contexte d’écoute c’est un critère déterminant.

Je ne vais pas chercher le même type et la même longueur, la même durée, de podcast pour le café du matin que pour le café du TGV Paris-Biarritz ! À chaque contexte d’écoute il y a une durée idéale.

Alors, qui produit des podcasts ? Est-ce qu’il y a une grosse offre française ? Moi je ne connais que celui de Tristan Nitot mais en effet je ne suis pas spécialiste.

 

Sur les quatre millions de podcasts dans le monde il y en a 72 000 qui sont francophones ce qui veut dire qu’il y en a beaucoup et qui a beaucoup plus d’heures de podcasts francophones publiés chaque jour qu’il y a d’heures dans une journée. Même si tu les écoutes en vitesse deux fois sans dormir tu ne pourras pas tout écouter.

L’une des particularités du marché français c’est l’importance de l’offre radiophonique parce que les Françaises et les Français sont très attachés à leurs radios, bien plus que dans les autres pays du monde, d’ailleurs. Et donc c’est naturellement qu’on retrouve les radios en bonne place dans les études d’écoute de podcasts. En France il y a également beaucoup de studios de podcasts d’une très grande qualité, vraiment beaucoup, et enfin et c’est ce qui est génial avec le podcasting : n’importe qui peut se lancer que ce soit pour une heure une semaine un an ou dix.

Ma fille a lancé le sien à dix ans !

 

Ah oui, les poésies d’Héloïse, tu m’as dit ça tout à l’heure.

 

C’est ça !

 

Est-ce qu’on a besoin de beaucoup de matériel pour faire un podcast ?

On a besoin que d’un bon micro, des idées, évidemment, euh, d’Audacity, Castopod, et ça suffit, hop-là, on se lance ?

 

La première chose dont on a besoin c’est l’envie puis l’idée et euh… et c’est tout !

Aujourd’hui n’importe quel téléphone moderne est capable d’enregistrer une voix bien mieux que les enregistreurs hors de prix qu’on avait dans les années quatre-vingts !

Si tu savais combien de podcasts sont en fait enregistrés au téléphone sous une couette ou dans une taie d’oreiller ! Bien entendu, et ce n’est pas valable que pour le podcast, hein, plus on avance et plus on devient exigeant et un bon microphone et une bonne carte son, ça fera vite la différence. Mais les contraintes techniques ne doivent pas brider la créativité.

En ce qui concerne le montage donc tu as cité Audacity. Je l’utilise de temps à autre mais je suis plutôt «Team Ardour». La grosse différence c’est qu’Audacity est destructif. C’est-à-dire que tu ne peux pas annuler une manipulation que tu as faite il y a deux heures alors qu’avec Ardour qui est non-destructif… deux ans après avoir bossé sur un montage tu peux encore tout corriger et revenir sur n’importe quelle opération.

Et enfin sur l’hébergement bah il y en a pour tous les besoins, tous les goûts, tous les profils, tous les podcasts, mais la seule solution qui à la fois open source certifié podcasting 2.0 et connectée au fédiverse c’est Castopod.

 

 

Qu’est-ce que tu écoutes, toi, comme podcasts ? Est-ce que tu as des conseils pour les personnes qui souhaitent une sélection ?
On mettra les liens dans les commentaires.

 

Ah c’est un peu audacieux de demander à un inconnu un conseil podcast, c’est un peu comme demander un conseil gastronomique à un inconnu dans la rue.

Surtout que personnellement j’ai une sélection qui est assez éclectique et pas très originale.

Dans les podcasts que j’écoute régulièrement… Il y a Podland, Podnews, Podcasting 2.0, The Europeans, Décryptualité, Libre à vous, L’Octet vert que tu as cité et Sans Algo. Et puis j’écoute aussi beaucoup de d’émission de radio du service public podcastées quand elles sont pas sauvagement supprimées des plateformes ouvertes, suivez mon regard…

 

Alors c’est quoi ton regard ? Tu peux les citer ou… ?

 

Non je ne veux me fâcher avec personne.

 

J’ai vu que Castopod était compatibles Activitypub. Alors ça veut dire quoi concrètement pour les gens qui nous écoutent ?

 

Alors
Activitypub c’est un protocole… c’est un protocole standard normalisé par le W3C, donc c’est pas vraiment des rigolos quand il s’agit de définir une norme, qui permet à toutes les plateformes de réseaux sociaux qui l’implémente de connecter leur contenu et leurs utilisatrices et leurs utilisateurs entre eux l’ensemble des plateformes qui utilisent Activitypub est appelé le fédiverse qui est un mot-valise contraction de «univers» et «fédérer». La plus emblématique de ces plateformes c’est Mastodon quel est donc une plateforme de microblogging semblable à Twitter qui connaît un succès considérable depuis 2017 et récemment on en entend beaucoup parler suite au rachat de Twitter et on compte aujourd’hui plusieurs milliers de serveurs Mastodon et plusieurs millions d’utilisatrices et utilisateurs.
Là où franchement ça devient génial et même au-delà de Mastodon c’est que le fédiverse permet de mutualiser et d’interconnecter plein plein plein de serveurs sur des technologies diverses, différentes, pourvu qu’il implémente Activitypub. Par exemple une utilisatrice ou un utilisateur pourra depuis un un compte Mastodon donc un unique compte Mastodon interagir avec d’autres qui sont connectés depuis un ou plusieurs serveurs Pixelfed, du partage de photos façon Instagram depuis des serveurs Peertube partage de vidéos façon Youtube depuis des serveurs Bookwyrm qui est un service de partage de critiques littéraires depuis les serveurs Funkwhale qui permet du partage de musique depuis Mobilizon, nous en parlions tout à l’heure, qui permet de partager de l’organisation d’événements et depuis Castopod qui permet le partage de podcasts.

Origami papillon réalisé avec une feuille portant des logos de Castopod, posé sur des fleurs
Illustration CC-BY-SA Benjamin Bellamy

Donc concrètement imagine c’est comme si depuis ton compte Twitter tu pouvais « liker » une photo Instagram, commenter une vidéo Youtube, partager une musique SoundCloud.

Alors évidemment bah ça c’est pas possible. C’est pas possible chez les GAFAM.

Mais sur le fédivers ça l’est ! C’est possible, et c’est possible aujourd’hui ! Ce qui fait que ben avec Castopod le podcast est le réseau social donc tes auditrices et tes auditeurs peuvent commenter, partager ou aimer un épisode directement sans aucun intermédiaire. Aucun intermédiaire, qu’il soit technique ou juridique, hein sans GAFAM, sans plateforme privative entre les deux tu as la garantie de ne pas te prendre un «strike» parce que tu as fait usage de ton droit de citation tu ne vas pas avoir ton compte bloqué parce que t’as utilisé des mots-clefs qui sont indésirables et pas de censure automatique par un idiot de «bot» qui ne sait dialoguer qu’en éructant des réponses pré-formatées.

Et tout cela en étant accessible à des millions d’utilisatrices et utilisateurs sur des milliers de serveurs du fédivers. Honnêtement, n’ayons pas peur de le dire, l’avenir des réseaux sociaux sera fédivers ou ne sera pas !

 

Ça me rappelle quelqu’un, tiens… Alors tu as mentionné, quand on a parlé de podcast, tout à l’heure, tu vois je n’arrive pas à le prononcer, décidément.

Tu as mentionné Podcast-Index quand on s’est parlé en préparant l’interview et tu as parlé de Podcasting 2.0 tout à l’heure. Qu’est-ce que c’est ?

Quatre bulles disent "podcrasse", "podcasque", "proutcast" et "prodcrasse" avant qu'une bulle énervée dise "Purin de purin !"
Fred répète pour prononcer « podcast » correctement.

 

 

 

Alors…

Hum…

Laisse-moi chausser mes lunettes parce que cette question nécessite qu’on s’arrête une petite heure, une petite heure et demie sur
l’histoire du podcast.

 

Je ne suis pas sûr qu’il nous reste autant (de temps).

 

Alors là je vais… je vais abréger.

Bien avant les iPods, en 1989, l’émission « l’illusion d’une radio indépendante » (“Иллюзия независимого радио”) ouvre la voie aux podcasts qu’on connaît aujourd’hui en proposant en URSS des émissions sonores qui à l’époque étaient diffusées sur des cassettes et des bandes magnétiques et de « URSS » à « RSS » il n’y a qu’un U, celui de « Uuuuuuh ! quel jeu de mot tout pourri !» jeux de mots que je m’abstiendrai donc de faire.

 

Trop tard !…

 

Et donc sans jeu de mots et bien plus tard c’est en octobre 2000 que Tristan Louis, comme son nom peut le laisser penser il est français, il a l’idée d’inclure des fichiers MP3 dans un flux RSS. RSS lui-même créé et promu par des véritables légendes tel que Ramanathan V. Guha, Dave Winer ou Aaron Swartz.
Et donc il crée la technologie qui est celle que tous les podcasts du monde utilisent encore aujourd’hui. Après ça alors qu’on parlait plutôt d’audio blogging à l’époque, Ben Hammersley, journaliste au Guardian, est le premier à lancer le mot podcast en février 2004 qui est un mot-valise entre « iPod » et broadcasting, broadcasting pour « diffusion » en anglais.

Ce qui fera vraiment connaître le podcast au grand public c’est d’abord les contenus par exemple “Daily Source Code” d’Adam Curry lancé à l’été 2004, et ensuite l’intégration des podcasts par Apple dans iTunes 4.9 en juin 2005.

Et puis pas grand-chose pendant toute une décennie ! En fait l’histoire du podcast elle aurait pu s’arrêter là.

Mais en 2014, Sarah Koenig va bousculer littéralement un écosystème un peu moribond en publiant Serial le podcast aux 350 millions de téléchargements et c’est à ce moment-là qu’un véritable engouement populaire pour les podcasts apparaît.

 

C’est impressionnant, comme chiffre !

 

Ah oui, c’est impressionnant, oui… C’est impressionnant surtout que ça n’arrête pas de croître ! C’est un très bon podcast d’ailleurs Serial, j’adore. Il y a trois saisons et les trois sont très très bien. Si on comprend l’anglais c’est vraiment un podcast à écouter, Serial.

Néanmoins malgré ce renouveau force est de constater que,en plus de quinze ans, pas une seule – et alors que les usages du web entre-temps ont été révolutionnées par le haut débit les smartphones les réseaux sociaux le cloud etc. – donc pas une seule innovation technologique n’est venue bousculer le podcast.
Statu quo fonctionnel et technologique.

Apple règne toujours en maître absolu sur son annuaire de podcasts et rien n’a évolué et à l’été 2019 Adam Curry le même que cité tout à l’heure et Dave Jones, insatisfaits de cette situation, décident de lancer en parallèle, non pas un non pas deux, mais bien trois projets afin de secouer un peu tout ça.

Premièrement et pour mettre fin à la dépendance vis-à-vis de l’index d’Apple ils créent un index de podcasts qui s’appelle Podcast-Index, pas super original, mais au moins on comprend ce que c’est. Il faut comprendre que là où l’index d’Apple requiert une validation d’Apple pour ajouter le moindre podcast mais également pour lire le contenu de l’index ce qui fait qu’Apple en fait a le pouvoir de vie ou de mort sur n’importe quelle application d’écoute qui n’utiliserait que son index.
Là où l’index d’Apple est soumis au bon vouloir d’Apple, Podcast-index est libre.

Il est libre en lecture et en écriture mais attention, vraiment libre par exemple la base de données de Podcast-index, elle est librement téléchargeable dans son intégralité en un clic depuis la page d’accueil. Tu n’as même pas besoin de créer un compte, de filer ton adresse mail, ton numéro de portable, ou le nom de jeune fille de ta mère. Et en plus de ça des API sont librement disponibles pour les applications mobiles Podcast-index référence aujourd’hui plus de quatre millions de podcasts. Apple aujourd’hui en a deux millions et demi.

Deuxièmement et pour rattraper le temps perdu, Adam et Dave décident de proposer de nouvelles fonctionnalités en créant des nouvelles méta-données, le « Podcast Namespace », qui ouvre la voie à ce qu’ils appellent « Podcasting 2.0 ».

Parmi les nombreuses fonctionnalités qui comprend comment on peut noter ben donc la gestion de transcription et de sous-titrage les liens de financement le chapitrage la géolocalisation contenus la gestion d’un intervenant. Il y en a plein d’autres ayant des nouvelles tout le temps, l’ensemble de ces spécifications euh et de ses innovations est librement consultable en ligne sur Github (on mettra le lien dans l’article, dans la description) et librement consultable encore une fois en lecture et en écriture.

C’est là en fait le troisième volet la troisième révolution, le mot est à peine exagéré hein qu’Adam et Dave vont apporter aux podcasts ; ils ont créé une communauté libre et ouverte où tout le monde peut apporter son temps son talent ou son trésor et force est de constater que ça fonctionne du tonnerre. En moins de six mois, alors que je rappelle qu’aucune innovation n’avait bousculé le podcast en quinze ans, en moins de six mois il y a plein d’applications d’écoute et d’hébergeurs évidemment dont Castopod qui ont rejoint le mouvement et qui ont intégré tout ou partie de ces nouvelles fonctionnalités. Donc cette communauté elle se rassemble sur Github sur Mastodon sur podcastindex.social dans un podcast éponyme et lors de réunions où on parle plutôt «techos».

Enfin le résultat c’est que la liste des applications et des services qui sont compatibles podcasting 2.0 est disponible sur le site podcasting.com. Clairement c’est sur ce site et sur podcastindex.org qui faut aujourd’hui choisir son application ou son hébergeur.

 

Alors moi je suis allé tourner un peu sur les sites de Castopod, je suis allé voir blog.castopod.org mais alors tout est en anglais là-dedans !

J’ai cherché un un petit bouton pour changer de langue et il n’y en a pas. Je croyais que le projet était français ? Pourquoi ça cause pas la langue de Molière ?

 

Le projet est français mais il est avant tout européen, enfin en tous cas d’un point de vue chronologique et et donc naturellement on a commencé par l’anglais et on n’a pas eu le temps de traduire cette partie-là mais ça va venir vite, c’est promis.

 

Oui parce que la doc en revanche elle a son site en français doc.castopod.org/fr et là j’étais content j’aurais dû commencer par là parce que il y a plein d’explications dans la doc.

 

Oui, alors la doc, on a pris le temps de la traduire en français et en plus la communauté aidant elle est également disponible en plus de l’anglais en brésilien1 et en norvégien et d’autres langues arriveront derrière.

 

Mais alors je suppose que c’est en fonction des contributeurs et des contributrices que le projet évolue ? Vous avez besoin de contributeurs de contributrices ? Comment est-ce qu’on peut faire pour vous aider ?

 

Ouais tout à fait mais Castopod c’est avant tout un projet ouvert hein donc le le code source est ouvert mais pas seulement on a besoin de développeuses et de développeurs mais également de traductrices de traducteurs de testeuses de testeurs de prescriptrices et de prescripteurs qui prêchent la bonne parole (merci Framasoft !) et puis de financement via Open Collective.

 

D’accord ! Alors comme d’habitude on te laisse le mot de la fin dans le Framablog. Est-ce qu’il y a des questions qu’on ne t’a pas posées ? Est-ce qu’il y a des choses que tu as envie d’ajouter ?

 

Écoute, je trouve que tu as mené cette interview d’une main de maître.

Merci de m’avoir reçu ! En fait je voudrais juste dire aux gens : essayez le podcast.

Vous avez un téléphone vous pouvez vous y mettre ; il ne faut pas être timides hein lancez-vous attendez pas des mois avant de créer le premier épisode car une fois qu’on a une idée on enregistre on publie et puis c’est ce que j’aime avec le podcast, on peut changer de modèle on peut changer de format on peut changer ce qu’on veut on peut tester il y a des hébergeurs pour tout le monde. Évidemment moi je vous engage à aller sur castopod.org pour voir ce que c’est pour voir ce qu’on propose.

Ah, si vous avez un peu la fibre technique eh bien n’hésitez pas à le télécharger et à l’installer, sachant que si vous avez pas la fibre technique et bah allez plutôt sur castopod.com où on propose des prestations d’hébergement clé en main. Et puis bon podcasting et bonne écoute !

 

Ah bah je vais m’y mette du coup je vais essayer de trouver quelques podcasts intéressants parce que c’est pas du tout ma culture ! En tout cas voilà grâce à toi je vais écouter des podcasts.

Merci beaucoup d’être venu parler avec nous et puis on espère longue vie à Castopod.

Merci à Framasoft.
À bientôt !

 

Pour aller plus loin

Sources, sites mentionnés

L’illustration « Fred répète » a été réalisée avec Gégé, le générateur de Geektionnerd basé sur des dessins sous licence libre de SImon « Gee » Giraudot

Musique : Creative Commons   by sa 2.5 license – Antiblues – from www.dogmazic.net/Tdbt

Podcasts

English version of this article

Castopod, the voice of the Fediverse (English version)




Alliance du Bâtiment : un format de fichier ouvert pour la construction

L’interopérabilité logicielle, c’est à dire la capacité de deux logiciels à parler « la même langue », a souvent été évoquée dans le Framablog.

La plupart du temps, il s’agissait pour nous de traiter de bureautique (« Pourquoi mon fichier LibreOffice est-il mal ouvert par cette saleté de Word ?! ») ou de web (« Pourquoi ce site est-il moins bien affiché avec Firefox qu’avec Chrome ? »).

Comme la langue française a besoin de règles de grammaire et d’orthographe, de dictionnaires, etc, les formats de fichiers ont besoin de spécifications, de normes, et d’être correctement implémentés.

Or, quand un format n’a pas de spécification publique et librement implémentable, cela nous rend dépendant⋅e de l’éditeur du logiciel. Un peu comme si un petit groupe de personnes pouvait décréter que vous ne pouviez pas utiliser le mot « capitalisme » parce que ça ne l’arrangeait pas, ou imposait l’interdiction du mot « autrice » (parce que « auteure » n’aurait été acceptée qu’après 2006). Ce serait assez fou, non ? Oh, wait…

Et bien certains formats de fichiers sont clairement verrouillés. Par exemple les fichiers .DWG du logiciel de dessin Autocad sont dans un format fermé. Alors évidemment, d’autres éditeurs ont essayé de « deviner » comment fonctionnait le format .DWG afin de pouvoir ouvrir et enregistrer des fichiers compatibles AutoCAD avec leur logiciel. C’est ce qu’on appelle de la rétro-ingénierie, mais c’est souvent du bricolage, et l’éditeur original peut régulièrement changer la spécification de son fichier pour embêter ses concurrents, voir aller jusqu’à leur intenter des procès.

Or, s’il existe un domaine où les formats de fichiers devraient bien être ouverts, c’est celui de la construction. Nous interagissons toutes et tous avec des bâtiments au quotidien. Qu’il s’agisse de notre logement, de notre lieu de travail, d’un bâtiment public, etc, nous passons d’un bâtiment à l’autre en permanence.

Or, aussi étonnant que cela puisse paraître, il n’existe pas de format de fichiers de description des données utiles à la construction qui soit à la fois public ET largement utilisé. Le logiciel AutoCAD (et son format .DWG) et le logiciel REVIT (pour le processus BIM et ses formats .rfa, .rvt) de la société Autodesk, dominent largement le marché. Et les conséquences sont loin d’être négligeables. Cela « force la main » des différents corps de métiers (architectes, ingénieurs, constructeurs, artisans, etc) à utiliser ces logiciels et entretient le quasi-monopole d’Autodesk sur le marché. Utiliser d’autres logiciels reste possible, mais imaginez les conséquences si ce logiciel fait une « erreur » en ouvrant le fichier « immeuble-de-12-étages.dwg » à cause d’une erreur dans l’interprétation de la spécification….

Par ailleurs, en dehors des descriptions des murs, des calculs de poids de structures, il faut aussi intégrer des éléments comme les chauffages, les canalisations, les circuits électriques, les fenêtres, etc. Les données générées par un bâtiment (ou autre bâti, tel un pont ou une route) sont donc extrêmement nombreuses. La page wikipédia « Liste des logiciels CAO pour l’architecture, l’ingénierie et la construction » est d’ailleurs plus que conséquente, et sa section logiciels libres est plutôt réduite…

Il existe bien des formats standardisés pour gérer la modélisation du bâti immobilier, appelée « BIM ». Ainsi, l’IFC est un format de fichier standardisé (norme ISO 16739) orienté objet utilisé par l’industrie du bâtiment pour échanger et partager des informations entre logiciels. Mais il est assez peu utilisé et souvent décrit en format natif, ce qui rend l’interopérabilité entre logiciels complexe à réaliser malgré l’existence de l’IFC.

Il apparaît donc essentiel de disposer de formats qui soient ouverts (pour permettre l’interopérabilité), et normalisés (validés et éprouvés par les professionnels du métier) pour nos constructions.

Nous avons rencontré les membres de l’association Alliance Bâtiment qui met à la disposition des maîtres d’ouvrage, maîtres d’œuvre, entreprises, artisans et fabricants PME, TPE, un format ouvert et partagé. Cela permet de normaliser la donnée d’entrée dans les logiciels métiers et rendre les maquettes IFC interopérables. L’accès au processus BIM et l’usage des logiciels BIM est ainsi fortement simplifié !

Bonjour ! Pouvez-vous vous présenter ?

Jean-Paul BRET, Président de l’association : Ma longue carrière professionnelle dans la promotion immobilière à l’OPAC 38, le plus gros bailleur social de l’Isère, et comme Président de la Communauté d’Agglomération du Pays Voironnais (38) durant 12 ans m’incite à penser que le secteur de la construction doit impérativement accélérer sa transition numérique.

Image de Jean-Paul BRET
Jean-Paul BRET

J’ai pu constater en engageant de nombreuses opérations de construction que les nombreux acteurs autour d’un projet avaient souvent du mal à se coordonner voire se comprendre. C’est une banalité de parler de retard de travaux, de dépassements budgétaires, de malfaçons pouvant conduire à des conflits et de documents descriptifs des ouvrages difficilement exploitables pour la maintenance des ouvrages.

Thierry LEHNEBACH, Administrateur Délégué : Très tôt, j’ai été motivé par la protection de l’environnement, ce qui m’a conduit à m’engager pour l’écologie. Cela m’a amené à avoir un parcours d’élu, conseiller régional, puis maire et vice président de l’intercommunalité. Dans le même temps, mon activité professionnelle s’est organisée autour de la communication orientée vers le numérique et l’informatique en opensource, puis une dernière activité dans une entreprise artisanale.

Image de Thierry LEHNEBACH
Thierry LEHNEBACH

Je mets en œuvre ces acquis au service de l’association en tant que cheville ouvrière : communication, animation, gestion.
La transformation numérique de la société ouvre de nouvelles frontières qui donne un avantage disproportionné aux plus puissants qui s’approprient le réel grâce au contrôle de la donnée. Le problème est que la culture de la donnée n’est pas encore développée et qu’il y a une grande naïveté chez tous les décideurs, utilisateurs et simples citoyens.

Didier BALAGUER : Après une première création d’entreprise d’ingénierie spécialisée en acoustique en 1994, j’ai créé datBIM, éditeur de solutions numériques collaboratives pour la construction, en 2000. J’ai identifié dès l’origine qu’une clé de la coopération est l’échange fluide et fiable de données entre les acteurs indépendamment des outils logiciels utilisés, ce qui a amené datBIM à créer le format opendthX.

Image de Didier BALAGUER
Didier BALAGUER

Faire en sorte que tout type de données soit exploitable dans tout type d’applications à l’image du secteur des télécommunications où 2 correspondants peuvent communiquer indépendamment de la marque de leur téléphone ou des opérateurs de services auxquels ils souscrivent respectivement leur abonnement. La valeur induite par l’interopérabilité des données avec les applications à l’échelle d’un secteur tel la construction Française est estimée à plusieurs dizaines de milliards d’euros par an.

Qu’est-ce qui vous a incité à vous investir en tant que bénévoles dans cette nouvelle association ALLIANCE DU BATIMENT pour le BIM ?

Didier BALAGUER : Ouvrir le format était une évidence, le concéder à ALLIANCE DU BATIMENT, association loi 1901 gouvernée par les acteurs volontaires de la filière, un moyen d’apporter la confiance pour permettre aux acteurs de maîtriser leur devenir numérique pour répondre collectivement aux enjeux de notre société : transition écologique, liberté d’expression et d’entreprendre tout en renforçant la compétitivité de notre économie.

Logo Alliance du bâtiment

Jean- Paul BRET : Lorsque Didier BALAGUER m’a proposé de créer l’ALLIANCE DU BATIMENT pour le BIM, avec pour objectif de faciliter la transition numérique de la filière avec les outils mis à disposition en opensource, j’ai tout de suite accepté. Cela a conduit au transfert à l’association de la gestion et la gouvernance du format opendthX initialement développé par la société datBIM pour en faire un bien commun, libre d’usage.

L’absence de langage commun et d’interopérabilité entre les données et les outils pénalise souvent la qualité des projets et l’efficacité de toute la filière constructive. Le BIM qui est la numérisation du processus de construction peut améliorer cette situation. C’est un moyen de le faire depuis la phase de conception d’un projet jusqu’à celle de la déconstruction en passant par la construction et l’exploitation.

Mais il ne doit pas être réservé aux grands acteurs de la filière et conduire à une plateformatisation et une appropriation de la valeur par quelques acteurs dominants ou des plateformes de type GAFAM. Or c’est ce qu’il se passe avec les formats propriétaires des logiciels de CAO adaptés pour le BIM.
Il doit être facilement accessible aux PME, TPE et artisans qui représentent environ 95% des entreprises de la filière constructive.

Pour cela nous allons mettre à leur disposition de nouvelles solutions d’interopérabilité qui faciliteront leur manière d’accéder à la donnée sur les objets. Elles leur permettront de contribuer à la production de la maquette numérique. L’enjeu est important puisqu’en cas de succès l’ALLIANCE DU BATIMENT pourrait avoir valeur d’exemple. Cela pourrait à ce titre, être décliné bien au-delà nos frontières.

Nous sommes d’autant plus motivés que ce projet, qui vise à faciliter la coopération au sein de la filière BTP, est totalement en phase avec les objectifs du plan gouvernemental BIM 2022 qui reposent sur le principe directeur du BIM POUR TOUS. Enfin, pour moi le BIM n’est pas seulement une démarche qui permet d’optimiser l’échange d’information et la collaboration entre acteurs d’un projet constructif. C’est aussi un outil au service de la transition écologique puisqu’il permet une véritable traçabilité environnementale.

Dans les deux cas, les enjeux sont cruciaux tant sur le plan de la compétitivité économique que des aspects sociétaux.

Thierry LEHNEBACH : ALLIANCE DU BATIMENT ouvre un front dans le secteur de la construction qui concerne, en terme d’échange de données relatives à l’objet constructif, 25 % du PIB quand on prend en compte l’ensemble des acteurs (BTP, banques, assurances, etc..) en considérant que la donnée numérique doit être un commun dans cette filière.

Pouvez-vous nous expliquer un peu plus ce qu’est le BIM ?

Image d'une maquette numérique
Maquette numérique

Thierry LEHNEBACH : Le BIM ou Building Information Modeling est la modélisation des informations de la construction. C’est l’utilisation d’une représentation numérique partagée d’un actif bâti. Le BIM facilite les processus de conception, de construction et d’exploitation. Ces actifs bâtis sont des bâtiments, ponts, routes, tunnels, voies de chemin de fer, usines,…
Le processus produit un livrable numérique, le building information model, en français la maquette numérique. C’est le support et en même temps le document numérique du processus qui doit permettre à tous les acteurs de collaborer.

Pouvez-vous nous parler du projet de l’association ?

Thierry LEHNEBACH : ALLIANCE DU BATIMENT pour le BIM met à disposition librement le format opendthX dont elle a acquis les droits exclusifs d’exploitation. Ce format a été développé par la société datBIM pour structurer des bibliothèques d’objets pour le BIM et les diffuser en permettant l’interopérabilité entre tous les logiciels.

La maquette numérique englobe la géométrie de la construction, les relations spatiales, les informations géographiques. Elle englobe également les quantités, ainsi que les propriétés des éléments et sous-éléments de construction. Le format IFC (NF EN ISO 16739) permet de classer ces informations de manière logique selon une arborescence spatiale. Cette arborescence est définie par projet, site, bâtiment, étage, espace, composant.

La maquette numérique standardisée au format international IFC rassemble une bonne partie des informations. Elle rassemble les formes et matériaux, les calculs énergétiques pour le chauffage, la climatisation, la ventilation. Cela comprend également les données sur l’aéraulique, l’hydraulique, l’électricité, radio et télécommunications, levage, emplacement des équipements, alarmes et sécurité, maintenance, etc.

Mais le format IFC n’est pas suffisant pour permettre la réalisation d’un processus BIM abouti. Il y a deux problèmes majeurs :

  • Le premier est que les objets au sein de la maquette IFC sont généralement structurés par des formats propriétaires et donc non interopérables. Les différents logiciels métiers utilisés sur un même projet utilisent des formats de données natifs. Ces formats concernent les objets avec des données décrites de différentes manières. L’écosystème BIM est un système multi-entrées dans lequel on introduit des données qui sont doublonnées et redondantes. Celles-ci constituent alors obligatoirement une donnée d’entrée de mauvaise qualité. Par conséquent elle amène à produire collectivement un résultat de piètre qualité. Ce phénomène pénalise des échanges fluides avec les logiciels des autres corps de métiers.
  • Le second problème est que les formats propriétaires permettent aux acteurs les plus puissants de s’approprier le contrôle des données, ce qui créé des barrières et ouvre la voie à des situations de monopole de type GAFAM.

La mise en œuvre du BIM doit être simple pour un déploiement généralisé. L’association met à disposition des acteurs le format opendthX et participe aux développements d’outils pour permettre l’accès au BIM à tous les acteurs.

Comment fonctionnent ces outils ?

Didier Balaguer : Le processus collaboratif proposé par ALLIANCE DU BATIMENT s’appelle le BIM CIQO (Collaboration In – Quality Out). Il est basé sur la normalisation de la donnée d’entrée introduite dans les logiciels métiers de la construction et l’enrichissement des « objets » pour permettre la contribution de tous au processus BIM. C’est la raison d’être du format Open dthX.

Schéma expliquant le BIM facile
Schéma expliquant le BIM facile

Le processus CIQO, ou BIM universel, est le traitement du GIGO (Garbage In Garbage Out), caractéristique du BIM complexe multi-formats natifs.

On peut le mettre en œuvre avec eveBIM, logiciel de visualisation / enrichissement de maquettes IFC développé par le CSTB ou en mode saas en cours de développement (bim-universel.com) pour définir des objets BIM sur la base de modèles génériques de type POBIM (Propriétés des objets BIM ), qui est une bibliothèque de 300 modèles d’objets génériques à partir d’un dictionnaire de 3200 propriétés, définies selon la norme NF XP P 07150 devenue en 2020 NF EN ISO 23386.

Cette bibliothèque à été réalisée dans le cadre des travaux du plan de transition numérique du Bâtiment (PTNB) accessible depuis kroqi.MydatBIM.com, plateforme d’objets labellisée par l’AMI (appel à manifestation d’intérêt) kroqi, plateforme de gestion de projets BIM de référence du Plan gouvernemental BIM 2022. Il existe également d’autres bibliothèques :

Comment est organisée votre association ?

Jean-Paul BRET : L’association est structurée par 6 collèges, dont les deux principaux piliers sont les organisations professionnelles telles que des CAPEB et des syndicats qui représentent des acteurs petits et moyens de la filière, et de maîtres d’ouvrage publics et privés. Il y a également des collèges association, organismes de formation, entreprises et citoyens.

Acteurs impliqués dans l'Alliance du Bâtiment
Acteurs impliqués dans Alliance du Bâtiment

Le modèle économique repose sur des adhésions, des financements sur projets et sur le produit de la formation par le biais de modules destinés à être mis en œuvre par des organismes de formation que l’association labellise.

 

C’est une structure légère qui a vocation à le rester tout en se professionnalisant pour s’inscrire dans la durée.

Selon vous, quels sont les enjeux d’un « BIM libre » ?

Le BIM libre permet à tous les acteurs de la filière des garder leur autonomie sans être rendus dépendants par des outils qu’ils ont eux même développés avec leur compétence mais dans un format qu’ils ne maîtrisent pas. L’interopérabilité complète permet aussi d’envisager le développement de savoir-faire partagés par l’ensemble de la filière pour faire monter celle-ci en efficacité. Il est possible par exemple d’imaginer de mettre en œuvre l’intelligence artificielle pour extraire de plusieurs projets des règles pour optimiser l’efficacité énergétique d’un type de construction.

L’accès à ce processus pour tous les acteurs est aussi un élément important pour les maîtres d’ouvrage qui veulent garder un écosystème d’entreprises de proximité. C’est une garantie pour la résilience des territoires et une sécurité contre la concentration qui conduit aux monopoles de fait.

Quelles sont les particularités de ce format Open dthx ?

Le format Open dthX a été développé par la société datBIM à partir de 2011 dans le cadre d’une collaboration avec l’école Centrale de Lyon et des experts en modélisation de la connaissance et ingénierie des systèmes. Les travaux ont bénéficié du soutien de la région Rhône-Alpes et l’Ademe (Innov’R) ainsi que de l’Europe (GreenConserve pour l’innovation de services à valeur ajoutée pour la construction durable et Eurostars).

L’enjeu de départ est de permettre aux acteurs du bâtiment (fournisseurs de matériaux, architectes, ingénieurs, …) de s’échanger – dès les premières phases du projet – les caractéristiques techniques des produits mis en œuvre dans la construction.

Logo du format Open dthX
Logo du format Open dthX

Un Dictionnaire Technique Harmonisé (DTH) a été mis en place à cette fin de nature dynamique afin que la sémantique puisse s’enrichir en fonction des besoins sans perturber les usages du format. Il maintient une liste de propriétés dans différents domaines (géométrique, acoustique, thermique, incendie, environnement, administratif…) en définissant pour chaque propriété un identifiant unique et une unité de mesure standard.

En 2015, la documentation du format est rendue publique, en faisant un format ouvert. Il est proposé à la normalisation entraînant la création d’un groupe d’experts sur les formats d’échange à la commission de normalisation, Afnor PPBIM. En 2019, il permet la distribution de la première bibliothèque d’objets génériques POBIM (propriétés des objets pour le BIM) décrit à partir d’un dictionnaire national de 3200 propriétés issues des travaux réalisés dans le cadre du plan gouvernemental de transition numérique du bâtiment (PTNB). En 2021, le plan gouvernemental BIM 2022 l’expérimente pour la réalisation d’un référentiel d’objets pour produire une maquette numérique contenant les informations nécessaires à l’instruction des autorisations d’urbanisme.

Normaliser la donnée d’entrée dans les logiciels métiers pour produire collectivement un livrable numérique de qualité (au sens interopérabilité du terme : exploiter le livrable qui est une base de données dans une application autre que celle qui l’a produite) et assurer l’enrichissement des objets à l’avancement du projet pour permettre la contribution de tous au processus BIM indépendamment des logiciels utilisés.

Quelle est la licence retenue pour la spécification de ce format ?

L’usage du format Open dthX est soumis à l’acceptation des termes de la licence « Creative Commons Attribution Pas de Modification 3.0 France ».
Sa principale valeur c’est justement qu’il soit unique afin d’assurer l’interopérabilité d’où le choix de ce type de licence. Des variantes porteraient préjudices à l’interopérabilité.

Qui utilise ce format de fichier Open dthx aujourd’hui ? Avec quels logiciels ?

Les utilisateurs du format Open dthX sont les acteurs de la construction : architectes, ingénieurs, entreprises, fabricants, maîtres d’ouvrage qui utilisent des logiciels de CAO tels Revit, ArchiCAD et de visualisation tels eveBIM, ciqo.eu…

De quoi avez-vous besoin aujourd’hui ? Et à plus long terme ?

Le premier enjeux est de faire connaître le projet de l’association. C’est assez difficile car la conscience de l’enjeu est très peu développé chez les décideurs et la communication des leaders du BIM qui vantent la puissance de leurs outils impose l’idée que leurs solutions sont le BIM alors que ces solutions n’en sont qu’une partie et que celle-ci est inadaptée à une approche data performante généralisable.

Nous cherchons aussi des partenaires qui mettent en œuvre ces outils. Nous sommes convaincus que les bénéfices de ces réalisations se diffuseront très rapidement auprès des décideurs vigilants sur les questions de maîtrise des données.

Enfin, nous voulons mettre en place un modèle qui nous permette de nouer des partenariats avec des développeurs qui peuvent proposer des développements qui utilisent le format pour des solutions correspondantes à des besoins métier liés à la construction.

Un mot ou une question à ajouter ?

Nous proposons à tous les décideurs en matière de construction de les accompagner pour mettre en œuvre le BIM universel de façon à avoir le plus grand nombre de références et de cas d’usage à diffuser pour propager la démarche.

 

Ressource à consulter :




Infoclimat : un commun météorologique et climatologique à préserver !

Infoclimat est une association de passionné·es de météo, qui agit pour favoriser et vulgariser l’échange de données et de connaissances autour de la météo et du climat.
Nous baignons dans les mêmes eaux et partageons les mêmes valeurs : les communs culturels doivent être ouverts à toutes et tous pour l’intérêt général !
L’association va fêter ses 20 ans et se lancer dans un nouveau projet : le recrutement de son·sa premier·ère salarié·e. C’est l’occasion de donner la parole à Frédéric Ameye et Sébastien Brana, tous deux bénévoles.

Bonjour Frédéric et Sébastien, pouvez-vous vous présenter ?

Frédéric Ameye (FA), 27 ans, je suis ingénieur dans les systèmes embarqués pendant les heures ouvrables… et en-dehors de ça, je suis depuis longtemps « Linuxien » et (modeste) défenseur du logiciel libre, mais aussi de l’égalité des chances à l’école — issu d’une famille ouvrière très modeste, c’est quelque chose qui me tient beaucoup à cœur. Le reste du temps (quand il en reste), vous me trouverez principalement en rando au fin fond de la montagne…

J’ai intégré l’aventure Infoclimat en 2009 (j’avais alors 15 ans), période à laquelle j’ai « refondu » le site web de l’asso à partir de l’ordinateur familial à écran cathodique, que je monopolisais des dizaines d’heures par semaine, jusqu’à très tard dans la nuit. J’ai continué ce rôle jusqu’à aujourd’hui (avec un écran plat, et moins d’heures dans la nuit car la trentaine arrive vite). Entre-temps, j’ai rejoint le Conseil d’Administration, et je suis ensuite devenu Vice-Président en 2015.

Sébastien Brana (SB), 42 ans. Dans la vie « hors Infoclimat », je suis chef de projet informatique à la Direction générale des finances publiques… et comme Frédéric, en dehors de « ça », j’occupe une grande partie de mon temps libre (soirées, week-end et congés) au profit du site et de l’association que j’ai rejoint en 2005 et dont je suis également Vice-Président depuis 12 ans. Au-delà des phénomènes météo (orages et chutes de neige notamment) qui m’ont toujours fasciné depuis aussi loin que je me souvienne, je suis également passionné par la communauté que nous avons formée depuis une vingtaines d’années, rassemblant des personnes de tous âges (des gamins de 10 ans aux retraités) et de tous milieux, amateurs ou professionnels, scientifiques ou littéraires, ou simplement amoureux de beaux paysages et de photographies. La météo touche tout le monde, les questions liées au climat interrogent tout le monde – bref, ces sujets intéressent voire passionnent bien au-delà des barrières sociales habituelles !

Vous êtes membres bénévoles de Infoclimat, pouvez-vous nous parler du projet de l’association ?

SB : Initialement, Infoclimat était un petit groupe de passionnés de météo et de climat, qui partageaient leurs relevés entre-eux à la fin des années 90, sur un site web appelé « OrageNet ». Tout cela a progressivement grossi, jusqu’à l’année 2003, où l’association a été créée principalement pour subvenir aux besoins d’hébergement du site web. A l’époque, nous étions déjà (et sans le savoir!) en « Web 2.0 » et pratiquions les sciences participatives puisque l’essentiel du contenu était apporté par les passionnés ; nous étions alors bien loin d’imaginer que les problématiques liées au climat deviendraient un enjeu mondial avec une telle résonance médiatique.

Site internet d'Infoclimat entre les années 90 et aujourd'hui
Infoclimat a beaucoup évoluée, entre les débuts sur un internet confidentiel des années 90 dédié au partage, au web d’aujourd’hui.

 

FA : Depuis, l’objet social s’est considérablement diversifié, avec la montée en puissance de notre asso. Aujourd’hui, nous visons trois thématiques particulières :

  • L’engagement citoyen au service de la météo et du climat : partager ses relevés, ses observations météo, installer des stations météorologiques,… au service de tous ! Cela permet de comprendre comment le climat change, mais aussi de déceler des particularités locales que les modèles de prévision ne savent pas bien prendre en compte, ou qui ne peuvent pas être mesurées facilement.
  • Valoriser la donnée météo et climato, qu’elle soit issue de services officiels ou diffusée en « OpenData » par nous ou nos passionnés, et en particulier en faire des outils utiles autant aux « pros » et chercheurs, qu’au service de la vulgarisation des sujets climatiques pour le grand public. Les utilisations sont très nombreuses : agriculture, viabilité hivernale, thermique dans l’habitat, recherches sur le changement climatique, production électrique, journalistes…
  • Former et transmettre les connaissances, par la production de contenus de vulgarisation scientifique, l’organisation de « rencontres météo », ou encore des interventions auprès des écoles, dans des événements sur le terrain ou sur les réseaux sociaux. Bref, contrer la désinformation et le buzz !

 

Installation de matériel météo
Quand Infoclimat débarque quelque part, c’est rarement pour pique-niquer… Mais plutôt pour installer du matériel météo !

 

Vous faites donc des prévisions météo ?

SB : Même si le forum est largement animé par des prévisionnistes amateurs, nous parlons finalement assez peu de prévisions météo : le cœur du site, c’est l’observation météo en temps réel et la climatologie qui résulte des données collectées, qui sont des sujets bien différents ! Il y aurait tant à dire sur le monde de la prévision météo, mais cela mériterait un article à lui seul, car il y a un gros sujet là aussi sur l’ouverture des données et la paternité des algorithmes… Souvent négligée, l’observation météorologique est pourtant fondamentale pour produire une bonne prévision. Pour faire court, la donnée météo « observée » est la nourriture qu’il faut pour entraîner les modèles climatiques, et faire tourner les modèles numériques qui vous diront s’il faut un parapluie demain sur votre pixel de 1km².

Observations météo avec le modèle français AROME
Quantité d’observations météo intégrées dans le modèle de prévisions français « AROME », source principale de toutes les prévisions en France métropolitaine. La performance des modèles météorologiques est fortement corrélée à la quantité, la fréquence, et à la qualité de leurs données d’entrées (observations radar, satellite, avions, stations météo au sol,…). La quantité d’observations des stations Météo-France est à peu près équivalente à la quantité de données produites par les passionnés d’Infoclimat. Graphique simplifié, hors données radar. Avec l’aimable autorisation de Météo-France et du CNRM.

 

FA : Ce qu’il faut savoir, c’est que l’immense majorité des sites internet ou appli que vous consultez ne font pas de prévisions météo, mais utilisent des algorithmes automatisés qui traitent des données fournies (gratuitement ou avec redevance) par les organismes publics (Météo-France, la NOAA, le Met-Office, l’organisme européen ECMWF,…). La qualité des prévisions est en gros corrélée à l’argent que les créateurs des sites et des applis peuvent injecter pour récolter des données brutes de ces modèles numériques. Par exemple, pour avoir les données du modèle de Météo-France « AROME », c’est à peu près gratuit car les données sont sous licence Etalab, mais si vous voulez des données plus complètes, permettant d’affiner vos algorithmes et de proposer « mieux », c’est sur devis.

Dès lors, Infoclimat ne souhaite pas se lancer dans cette surenchère, et propose uniquement des prévisions automatisées issues de données ouvertes de Météo-France et de la NOAA, et indique très clairement la différence entre prévisions automatisées et bulletins rédigés par des passionnés.

Image des "cubes" de données des modèles météo
La Terre est découpée en petits cubes dans lesquels les modèles météo estiment les paramètres de l’atmosphère à venir. Les cubes sont généralement bien plus gros lorsque les échéances sont lointaines (J+4, J+5…), ce qui empêche les modèles météorologiques de discerner les phénomènes météo de petite échelle (averses, orages, neige, effets des reliefs et des côtes). Pourtant, de nombreuses appli météo se contentent de vous fournir grossièrement ces données sans l’explication qui va avec. Chez Infoclimat, on laisse volontairement la résolution native, pour ne pas induire le lecteur en erreur sur la résolution réelle des données.

 

Cela me fait toujours rire (jaune) quand j’entends « [site ou appli] a de meilleures prévisions à chaque fois, et en plus, on les a à 15 jours ! » : lorsqu’il s’agit de prévisions « automatiques », par ville, il est probable qu’il utilise les mêmes données que tous les autres, présentées légèrement différemment, et qu’il s’agisse juste d’un biais de confirmation. Il existe bien sûr quelques exceptions, certaines entreprises faisant un vrai travail de fusion de données, d’analyse, de suppression des biais, pour proposer des informations de très grande qualité, généralement plutôt payantes ou pour les pros. Mais même chez ceux qui vous vendent du service d’aide à la décision, de protection des biens et des personnes, des données expertisées ou à vocation assurantielles, vous seriez très surpris de la piètre qualité de l’exploitation qui est faite de ces données brutes.

Graphique présentant la technique de prévision ensembliste
Les modélisateurs météo ont plein de techniques pour prendre en compte les incertitudes dans les observations et les modèles, notamment ce que l’on appelle la « prévision ensembliste ». Mais ces incertitudes sont rarement présentées ou expliquées au public. Ici par exemple, le graphique présente la quantité de pluie prédite par un modèle météo le 6 janvier, pour la période entre le 6 janvier et le 16 janvier 2022, sur un point de la France. Le modèle considère plusieurs scénarios d’évolution possible des futurs météorologiques. Source : ECMWF, CC BY 4.0.

 

Malheureusement, cette situation rend très délicate la perception des prévisions météo par le grand public (« ils se trompent tout le temps ») : la majorité des applis prend des données gratuites, de faible qualité, sur le monde entier, qui donnent une prévision différente 4 fois par jour au fil des calculs. Cela ne met vraiment pas en valeur le travail des modélisateurs, qui font pourtant un travail formidable, les modèles numériques s’améliorant considérablement, et décrédibilisent aussi les conclusions des organismes de recherche pour le climat (« ils ne savent pas prévoir à 3 jours, pourquoi ils sauraient dans 50 ans ?! »), alors qu’il s’agit surtout d’une exploitation maladroite de données brutes, sans accompagnement dans leur lecture.

Graphique présentant l'amélioration de la qualité des prévisions de l'état de l'atmosphère
Ce graphique présente, grosso-modo, l’amélioration de la qualité des prévisions de l’état de l’atmosphère au fil des années, à diverses échéances de temps (jaune = J+10, vert = J+7, rouge = J+5, bleu = J+3) et selon les hémisphères terrestres. Plus c’est proche de 100%, meilleures sont les prévisions ! Source : ECMWF, CC BY 4.0. 

 

Du coup, quelles actions menez-vous ?

FA : Notre action principale, c’est la fourniture d’une plateforme sur le web, qu’on assimile souvent au « Wikipédia de la météo », ou à un « hub de données » : nous récoltons toutes sortes de données climatiques et météorologiques de par le monde, pour les décoder, les rendre digestes pour différents publics, et la mettre en valeur pour l’analyse du changement climatique. Ce sont par exemple des cartographies, ou des indices d’évolution du climat. C’est notre rôle initial, qui aujourd’hui compile plus de 6 milliards de données météo, à la qualité souvent rigoureusement contrôlée par des passionnés ! Il faut savoir que nous n’intégrons pas toutes les stations météo : nous respectons des normes de qualité du matériel et de l’environnement, pour que les données soient exploitables et comparables entre-elles, comparables avec des séries climatiques historiques, et assimilables dans des modèles numériques de prévision.

 

Infoclimat propose une interface simple et très complète
Infoclimat propose l’accès à toutes les informations météo et climatiques dans des interfaces qui se veulent simples d’accès, mais suffisamment complètes pour les plus experts. Dur équilibre !

 

SB : Avec l’accroissement de notre budget, nous avons pu passer à l’étape supérieure : installer nos propres stations météo, et soutenir les associations locales et les passionnés qui en installent et qui souhaitent mettre leurs données au service d’une base de données commune et libre.

Randonnée pour installer la station météo à Casterino
Les passionnés ne reculent devant rien pour l’intérêt général. Aller installer une station météo à Casterino, village des Alpes Maritimes qui s’est retrouvé isolé de tout après la tempête Alex ? C’est fait, et avec le sourire malgré les kilomètres avec le matériel sur le dos ! Retrouvez l’article ici

 

Il faut savoir que la donnée météo se « monnaye », et chèrement: Météo-France, par exemple, ne met à disposition du grand public que quelques pourcents de ses données, le reste étant soumis à des redevances de plusieurs centaines de milliers d’euros par an (on y reviendra). Ce n’est d’ailleurs pas le cas dans tous les pays du monde, les États-Unis (NOAA) ont été précurseurs, beaucoup de pays Européens s’y mettent, mais la France est un peu en retard… Nous sommes partenaires de Météo-France, participons à des travaux communs dans le cadre du « Conseil Supérieur de la Météorologie », mais c’est très long, trop long, et cela prive Météo-France d’une source de revenus importante dans un contexte de stricte restriction budgétaire. L’établissement public administratif se retrouve en effet pris dans une injonction contradictoire par son autorité de tutelle (le Ministère de la Transition écologique et solidaire) : d’un côté il doit « libérer » les données publiques et mettre en place les infrastructures nécessaires, de l’autre, on lui intime l’ordre de trouver de nouvelles sources de financement par sa branche commerciale, et on lui réduit ses effectifs !

Redevances Météo France
Redevances demandées par Météo-France pour accéder aux données météo de son réseau « RADOME » (90% des stations françaises). Hors de portée de notre association ! Source

 

Données ouvertes météo France et données Infoclimat
Le réseau de stations en France, avec les données ouvertes de Météo-France (à gauche), et avec les données Infoclimat et partenaires en plus (à droite). Remarquez le contraste avec certains autres pays Européens !

 

Aujourd’hui, Infoclimat c’est donc un bon millier de stations météo (les nôtres, celles des passionnés, et de nos associations partenaires), qui complètent les réseaux nationaux dans des zones non couvertes, et qui permettront à l’avenir d’améliorer la fiabilité des modèles météo de Météo-France, dans des travaux que nous menons avec eux sur l’assimilation des réseaux de données partenaires. Parfois d’ailleurs, nous réinstallons des stations météo là où Météo-France est parti ou n’a pas souhaité améliorer ou maintenir des installations, comme au Mont-Ventoux (84), ou à Castérino (06). Et ces données intéressent une multitude d’acteurs, que nous découvrons souvent au hasard des installations : au-delà de l’intérêt pour la météo des particuliers (« combien fait-il au soleil? » « quelle quantité de pluie est tombée la nuit dernière? »), les activités professionnelles météo-sensibles allant de l’agriculture à l’expertise en assurance, en passant par les études de risques et/ou d’impacts jusqu’aux recherches sur les « ICU » (ilots de chaleurs urbains observés dans les milieux urbanisés) se montrent très demandeuses et n’hésitent pas à se tourner vers nous pour leur fournir de la « bonne data-météo ».

Réhabilitation d'une station météo au Mont-Ventoux
Réhabiliter une station météo au sommet du Mont-Ventoux : check. Les données météo sont par ici. 

 

Enfin, le troisième pilier, c’est la pédagogie. Nous avons repris en 2018, à nos frais et sans aucune subvention, l’initiative « Météo à l’École », qui avait été lancée en 2008 par le Ministère de l’Éducation Nationale avec Météo-France et l’Observatoire de Paris, mais qui a failli disparaître faute de budget à la fin du « Grand Emprunt ». L’objectif : sensibiliser de manière ludique les publics du primaire et du secondaire aux enjeux de la météo et du climat. Installer une station météo dans un collège permet de faire un peu de techno, traiter les données en faisant des maths, des stats et de l’informatique, et enfin les analyser pour parler climat et Système Terre.
Aujourd’hui, nous hébergeons les données des quelques 60 stations, ainsi que les contenus pédagogiques de Météo À l’École, permettant aux profs d’échanger entre eux.

Photo : Météo à l'École
Installer des stations météo dans les écoles, expliquer les concepts de la météo et du climat, « jouer » avec des données, et discuter entre profs : c’est ce que permet le programme Météo à l’École

 

Depuis de nombreuses années, nous complétons cela avec des interventions auprès des jeunes et moins jeunes, sous forme d’ateliers ou de journées à thème (« Rencontres Météo et Espace », « Nuit des Chercheurs », « Fête du Vent »,…), un peu partout en France selon la disponibilité de nos bénévoles !

Rencontre Météo et Espace
Lors des Rencontres Météo et Espace organisées par le CNES, Infoclimat et Météo-France, les enfants apprennent par exemple comment on mesure les paramètres en altitude dans l’atmosphère, grâce aux ballons sondes.

 

Photos : évènements tout publics
Nous aimons autant apprendre des choses aux très jeunes (à gauche), qu’aux moins jeunes (à droite), lors d’événements tout-publics.

 

Quelles valeurs défendez-vous ?

FA : La première de nos valeurs, c’est l’intérêt général ! Ce que nous avons conçu au cours de ces vingt dernières années n’appartient à personne, c’est un commun au service de tous, et pour certaines informations, c’est même le point de départ d’un cercle vertueux de réutilisation, par la libération des données en Open-Data.

Page OpenData d'Infoclimat
La page OpenData d’Infoclimat, qui permet de s’abstraire des complexités des formats météo, des différents fournisseurs, et tente de résoudre au mieux la problématique des licences des données.

Comme on l’a dit plus haut, le monde de la météo est un juteux business. Vous trouverez pléthore de sites et applis météo, et leur composante commune, c’est que ce sont des sociétés à but lucratif qui en font un business, sous couvert d’engagement citoyen et de « communauté ». Vous y postez vos données et vos photos, et ils en tirent en retour des revenus publicitaires, quand ils ne revendent pas les données météo à d’autres sociétés (qui les mâchouillent et en font de l’analyse pour d’autres secteurs d’activité).

Parmi les initiatives similaires, on peut citer parmi les plus connues « Weather Underground » (appartenant à IBM et destinée à alimenter Watson) ou encore « Awekas » (Gmbh allemande), « Windy » (société tchèque), « Météociel » (SAS française), qui sont des sociétés privées à plusieurs centaines de milliers ou quelques millions d’euros de CA. On notera d’ailleurs que toutes ces initiatives ont des sites souvent moins complets que le notre !
On se retrouve dans une situation parfois ubuesque : ces types de sociétés peuvent acheter des données payantes à l’établissement public Météo-France (pour quelques centaines de milliers d’euros par an), et les proposent ensuite à tous sur leur site web, rémunéré par la publicité ou par abonnement à des fonctionnalités « premium ». Alors qu’elles pourraient bénéficier à tous dans une base de données librement gérée comme celle d’Infoclimat, et aussi servir nos outils d’analyse du changement climatique ; il faut passer obligatoirement par les sites de ces sociétés privées pour bénéficier des données produites par l’établissement public… et donc en partie avec l’argent public. D’autres acteurs de notre communauté en faisant déjà echo il y a bien des années, et la situation n’a pas changé : https://blog.bacpluszero.com/2014/06/comment-jai-failli-faire-doubler-le.html.

Photo : visite Météo France
Nos adhérents et administrateurs lors d’une visite chez Météo-France, en 2016. Malgré un partenariat depuis 2009, l’établissement public éprouve toujours des difficultés à partager ses données avec la communauté, mais s’engage à ses côtés dans la formation et le support technique. En mémoire de nos bénévoles disparus Pouic, Mich’, Enzo.

 

SB : Notre force, c’est de pouvoir bénéficier d’une totale indépendance, grâce à nos adhérents, mécènes et donateurs. On a réalisé le site dont on a toujours rêvé, pas celui qui générera le plus de trafic possible pour en tirer un revenu. Les données des stations météo que nous finançons sont toutes placées sous licences ouvertes, et nos communications sont rigoureuses et factuelles plutôt que « putaclic » (ce qui nous vaut d’ailleurs une notoriété encore assez limitée chez le grand public, en dehors des photos de nos contributeurs reprises dans les bulletins météo de France TV notamment).

Trouvez-vous aussi votre indépendance vis-à-vis des GAFAM ?

FA : Cela reste encore perfectible : si nous croyons à notre indépendance et au respect des utilisateurs, il y aurait encore des reproches à nous faire. Nous mettons vraiment beaucoup en place pour respecter les données (qu’elles soient météo, personnelles, ou les droits des photographes), nous auto-hébergeons l’immense majorité des contenus (sur 12 serveurs dédiés OVH, du cloud Scaleway, et des machines gracieusement prêtées par Gandi, et même un NAS chez un administrateur fibré !), et essayons d’éviter les services tiers, et les fuyons au possible lorsqu’ils sont hébergés ou contrôlés à l’étranger. Mais tout n’est pas toujours si simple.

Par exemple, nous utilisions jusqu’à très récemment encore Google Analytics, par « simplicité » : tout notre historique depuis 2008 y est stocké, et une instance Matomo assez dimensionnée pour 150M de pages vues par an, ça veut dire gérer une nouvelle machine, et des coûts supplémentaires… pour une utilisation assez marginale, notre exploitation des statistiques étant très basique, puisque pas de publicités et pas de « conversions » ou « cibles d’audience »… Mais tout de même appréciée des bénévoles pour analyser la fréquentation et l’usage des rubriques du site. Il doit aussi traîner quelques polices de caractères hébergées par Google, mais tout le reste est 100% auto-hébergé et/ou « fait maison ».

Complexité des cartes de Infoclimat
Nos cartes sont complexes et nécessitent des données géospatiales de bonne qualité, et à jour. Maintenir à jour une telle base, seuls, et à l’échelle mondiale, est… un projet à lui tout seul.

 

Nous sommes aussi de gros consommateurs de contenus cartographiques, et proposons des interfaces de visualisation mondiales plutôt jolies (basées sur OpenLayers plutôt que GoogleMaps), mais qui nécessitent des extractions de données particulières (juste les villes, un modèle de terrain haute résolution, ou bien juste les rivières ou limites administratives). C’est un sujet qui peut aussi être vite difficile à gérer.
À une époque, on stockait donc une copie partielle de la base de données OpenStreetMap sur l’Europe, et je générais moi-même des carto avec Tilemill / Mapserver / Geowebcache et des styles personnalisés. Les ressources nécessaires pour faire ça étaient immenses (disque et CPU), la complexité technique était grande, et que dire quand il faut tenir toutes ces bases à jour. C’est un projet à lui tout seul, et on ne peut pas toujours réinventer la roue. Bref, pour le moment, nous utilisons les coûteux services de Mapbox.

Vous nous avez parlé de certaines limites dans votre travail bénévole, qu’est-ce qui vous pose problème ?

FA : Le problème majeur, c’est le développement web du site. La majorité de nos outils sont basés sur le site web : cartes, graphiques, statistiques climatiques, espaces d’échange, contenus pédagogiques, tout est numérique. Aujourd’hui, et depuis 13 ans, le développement et la maintenance du site et de ses serveurs repose sur un seul bénévole (moi !). Déjà, ce n’est pas soutenable humainement, mais c’est aussi assez dangereux.
La raison est simple : un logiciel avec 400.000 lignes de code, 12 serveurs, des technologies « compliquées » (formats de fichiers spécifiques à la météo, cartes interactives, milliards d’enregistrements, bases de données de plusieurs téraoctets,…), ce n’est pas à la portée du premier bénévole qui se pointe ! Et il faut aussi beaucoup d’accompagnement, ce qui est difficile à combiner avec la charge de travail existante.

Pour les plus geeks d’entre-vous, concrètement, voici les technos sur lesquelles sont basées nos plateformes : PHP (sans framework ni ORM !), Javascript/jQuery, OpenLayers, Leaflet, Highcharts, Materialize (CSS), pas mal de Python pour le traitement de données météo (Scipy/Numpy) du NGINX, et pour les spécifiques à notre monde, énormément de GDAL et mapserver, geowebcache, des outils loufoques comme NCL, des librairies pour lire et écrire des formats de fichiers dans tous les sens (BUFR, SYNOP, METAR, GRIB2, NetCDF).
Et bien sûr surtout MariaDB, en mode réplication (et bientôt on aura besoin d’un mode « cluster » pour scaler), des protocoles de passage de message (RabbitMQ, WebSockets), de l’ElasticSearch et SphinxSearch pour la recherche fulltext, et du Redis + Memcached pour les caches applicatifs.
Au niveau infra, évidemment de la gestion de firewall, de bannissement automatique des IP, un peu de répartition de charge, de l’IP-failover, un réseau dédié entre machines (« vRack » chez OVH), beaucoup de partages NFS ou de systèmes de fichiers distribués (GlusterFS, mais c’est compliqué à maintenir donc on essaie de migrer vers de l’Object-Storage type S3).
Et on a aussi une appli mobile Android en Java, et iOS en Swift, mais elles sont vieillissantes, fautes de moyens  (leur développement a été sous-traité), et la majorité des fonctionnalités est de toutes façons destinée à être intégrée sur le site en mode « responsive design ».
Je passe sur la nécessité de s’interfacer avec des API externes (envois de mails, récupération de données météo sur des serveurs OpenData, parsing de données météo, API de la banque pour les paiements d’adhésions), des outils de gestion interne (Google Workspace, qui est « gratuit » pour les assos, hé oui !), des serveurs FTP et VPN pour connecter nos stations météo, un Gitlab auto-hébergé pour le ticketing et le code source …

SB : On a aussi des difficultés à dégager du temps pour d’autres actions : installer des stations météo par exemple, ce n’est pas négligeable. Il faut démarcher des propriétaires, obtenir des autorisations, parfois signer des conventions compliquées avec des collectivités locales, gérer des problématiques « Natura 2000 » ou « Bâtiments de France », aller sur site,… c’est assez complexe. Nous essayons de nous reposer au maximum sur notre communauté de bénévoles et adhérents pour nous y assister.

Quels sont vos besoins actuels ?

SB : Dans l’idéal, et pour venir en renfort de Frédéric, nous aurions besoin d’un développeur « full-stack » PHP à plein temps, et d’un DevOps pour pouvoir améliorer l’architecture de tout ça (qui n’est plus au goût des stacks technologiques modernes, et sent un peu trop l’année 2010 plutôt que 2022, ce qui rend la maintenance compliquée alors que le trafic web généré suppose de la perf’ et des optimisations à tous les niveaux).
Ce n’était pas immédiatement possible au vu des revenus de l’association, qui atteignaient environ 60.000€ en 2021, dont 15.000€ sont dépensés en frais de serveurs dédiés chez OVH (passer au tout-cloud coûte trop cher, en temps comme en argent,… mais gérer des serveurs aussi !).

FA : On développe aussi deux applis Android et iOS, qui reprennent les contenus du site dans un format simplifié, et surtout permettent de recevoir des alertes « push » selon les conditions météo, et d’afficher des widgets. Elles sont dans le même esprit que le site (pas de pubs, le moins de contenus tiers possibles), cependant ce sont des applis que l’on a sous-traité à un freelance, ce qui finit par coûter très cher. Nous réfléchissons à quelle direction donner à celles-ci, surtout au vu de l’essor de la version « responsive » de notre site.
Nous aimerions commencer à donner une direction européenne à notre plateforme, et la mettre à disposition des communautés d’autres pays. Il y a un gros travail de traduction, mais surtout de travaux techniques pour rendre les pages de notre site « traduisibles » dans différentes langues.

Vous ouvrez cette année un premier poste salarié, quelle a été votre démarche ?

SB : Dès lors, nous avions surtout un besoin intermédiaire, qui vise à faire progresser nos revenus. Pour cela, notre première marche sur l’escalier de la réussite, c’est de recruter un·e chargé·e de développement associatif, chargé d’épauler les bénévoles du Conseil d’Administration à trouver des fonds : mécènes et subventionneurs publics. Les sujets climat sont au cœur du débat public aujourd’hui, l’engagement citoyen aussi (on l’a vu avec CovidTracker !), nous y participons depuis 20 ans, mais sans savoir nous « vendre ».

FA : Cette première marche, nous l’avons franchie grâce à Gandi, dans le cadre de son programme « Gandi Soutient », qui nous a mis en relation avec vous, Framasoft. Vous êtes gentiment intervenus auprès de nos membres de Conseil d’Administration, et vous nous avez rassurés sur la capacité d’une petite association à se confronter aux monopoles commerciaux, en gardant ses valeurs fondatrices. Sans votre intervention, nous n’aurions probablement pas franchi le pas, du moins pas aussi vite !

Intervention de Framasoft pendant une réunion du CA de Infoclimat

 

SB : Cela va nous permettre de faire souffler une partie de nos bénévoles. Même si cela nous fait peur, car c’est une étape que nous n’osions pas franchir pour préserver nos valeurs, c’est avec une certaine fierté que nous pouvons aujourd’hui dire : « nous sommes une asso d’intérêt général, nous proposons un emploi au bénéfice de tous, et qui prend sa part dans la mobilisation contre le changement climatique, en en donnant des clés de compréhension aux citoyens ».

FA : La seconde étape, c’est recruter un⋅e dév’ web full-stack PHP/JS, quelqu’un qui n’aurait pas été impressionné par ma liste de technos évoquée précédemment ! Comme nous avons eu un soutien particulièrement fort de notre communauté en ce début d’année, et que notre trésorerie le permet, nous avons accéléré le mouvement, et la fiche de poste est d’ores-et-déjà disponible, pour un recrutement envisagé à l’été 2022.

Comment pouvons-nous soutenir Infoclimat, même sans s’y connaître en stations météo ?

FA : Pour celles et ceux qui en ont les moyens, ils peuvent nous soutenir financièrement : c’est le nerf de la guerre. Quelques euros sont déjà un beau geste ; et pour les entreprises qui utilisent quotidiennement nos données (on vous voit !), un soutien plus important permet à nos outils de continuer à exister. C’est par exemple le cas d’un de nos mécènes, la Compagnie Nationale du Rhône, qui produit de l’électricité hydroélectrique et éolienne, et est donc légitimement intéressée de soutenir une asso qui contribue au développement des données météo !
Pour cela, nous avons un dossier tout prêt pour expliquer le détail de nos actions auprès des décideurs. Pour aller plus loin, une seule adresse : association@infoclimat.fr

Et pour ceux qui veulent aussi s’investir, nous avons une page spécifique qui détaille le type de tâches bénévoles réalisables : https://www.infoclimat.fr/contribuer.

Ce n’est pas exhaustif, il y a bien d’autres moyens de nous épauler bénévolement, pour celles et ceux qui sont prêts à mettre les mains dans le cambouis : des webdesigners, développeurs aguerris, experts du traitement de données géographique, « datavizualisateurs », ou même des gens qui veulent faire de l’IA sur des séries de données pour en trouver les erreurs et biais : il y a d’infinies possibilités ! Je ne vous cacherai pas que le ticket d’entrée est assez élevé du point de vue de la technique, cela dit…

SB : Pour les autres, il reste l’énorme possibilité de participer au site en reportant des observations via le web ou l’appli mobile (une paire d’yeux suffit!) ainsi que des photos, ou… simplement nous faire connaître ! Une fois comprise la différence entre Infoclimat et tous les sites météo, dans le mode de fonctionnement et l’exploitation commerciale ou non des données, on comprend vite que notre association produit vraiment de la valeur au service des citoyens, sans simplement profiter des données des autres, sans apporter sa pierre à l’édifice, comme le font nonchalamment d’autres initiatives. Par ailleurs, nous avions pour projet d’avoir une page sur Wikipédia, refusée par manque de notoriété 🙁 . Idem pour la demande de certification du compte Twitter de l’Association, qui pourtant relaie de l’information vérifiée et montre son utilité lors des événements météo dangereux ou inhabituels, comme lors de l’éruption tout récente du volcan Hunga Tonga-Hunga Ha’apai sur les Iles Tonga qui a été détectée 15h plus tard et 17.000 km plus loin par nos stations météo lors du passage de l’onde de choc sur la métropole!

Capture écran : tweets postés avec le passage de l'onde de choc après l'erruption du volcan des Iles Tonga sur la métropole

FA : Infoclimat, c’est un peu l’OpenFoodFacts du Yuka, l’OpenStreetMap du GoogleMaps, le PeerTube du YouTube, le Wikipédia de l’Encarta (pour les plus vieux)… et surtout une formidable communauté, que l’on en profite pour remercier ici !

On vous laisse maintenant le mot de la fin !

SB : Bien sûr, on aimerait remercier tous ceux qui ont permis à cette aventure de progresser : tous les bénévoles qui ont œuvré depuis 20 ans, tous les adhérent⋅e⋅s qui ont apporté leur pierre, nos mécènes et donateurs, ainsi que les passionnés qui alimentent le site et nous soutiennent depuis toutes ces années!

FA : Le soutien de Gandi et Framasoft a aussi été un déclencheur, et j’espère que cela pourra continuer à être fructueux, au service d’un monde meilleur et désintéressé. Des initiatives comme la notre montrent qu’être une asso, ça permet de produire autant voire plus de valeur que bien des start-up ou qu’un gros groupe qu’on voit passer dans le paysage météo. Et pourtant, nous sommes souvent bien moins soutenus, ou compris.

 

Resources à consulter :




PENSA, un projet universitaire européen autour de la citoyenneté numérique

En février 2020, nous avons été contacté par Marco Cappellini, d’Aix-Marseille Université, qui nous proposait de participer à un projet européen – qui n’avait, à l’époque, pas encore de nom – sur la thématique de la citoyenneté numérique dans une perspective plurilingue. Intriguées, nous avons voulu en savoir plus et, après un temps d’échanges, nous avons convenu que Framasoft serait l’un des partenaires associés de ce projet, spécifiquement sur la production de séquences de formations. Et puis, une pandémie mondiale est passée par là ! Ce n’est donc qu’en février 2021 que le projet PENSA (c’est son petit nom) a eu confirmation de son financement et que nous avons pu préciser notre participation : nous animerons une session de formation sur les logiciels libres dans l’enseignement en juin 2022. Maintenant que le projet est lancé, il était temps qu’on vous en parle. Et pour cela, nous avons proposé aux personnes qui coordonnent ce projet de répondre à une petite interview.

logo projet PENSA

Bonjour Elisabeth et Marco ! Pouvez-vous vous présenter ?

Bonjour, je suis Elisabeth Sanchez, Ingénieure d’études au Centre de Formation et d’Autoformation en Langues (CFAL) à Aix Marseille Université. Je suis en charge de l’animation et de l’ingénierie du projet PENSA.
Bonjour, je suis Marco Cappellini, enseignant chercheur à Aix Marseille Université et coordonnateur du projet PENSA.

Vous faites tous les deux partie de l’équipe de coordination du projet PENSA. Vous pouvez nous expliquer de quoi il s’agit ?

Le projet pour une Professionnalisation des Enseignants utilisant le Numérique pour un Soutien à l’Autonomie et à la citoyenneté (PENSA), soutenu par le programme Erasmus+ de la Commission européenne, aborde deux questions d’actualité dans l’enseignement supérieur et la société.

La première est le besoin de formation et d’infrastructure pour dispenser un enseignement mixte, distant et/ou co-modal (c’est-à-dire un enseignement en classe diffusé simultanément à des étudiants en ligne) qui s’est fait à la suite de la pandémie. Pendant les lockdowns nationaux et pour dispenser un enseignement co-modal, les enseignants se sont souvent tournés vers les plateformes en ligne classiques telles que Zoom sans être conscients du modèle économique de ces plateformes en termes de traitement des données personnelles.

La deuxième question est la nécessité d’éduquer les jeunes aux implications de l’utilisation des sites de réseaux sociaux (Facebook, YouTube, etc.) sur les plans psychologique, sociologique, économique et social. En effet, le déploiement de ces plateformes s’est accompagné de discours d’émancipation, les utilisateurs ayant pu exprimer et échanger leurs idées en ligne, générant ainsi davantage de dialogue public. Parfois, des dérives extrêmes ont démontré la fragilité du système d’où la nécessité de sensibiliser les étudiants aux logiques inhérentes à ces plateformes.

Le projet PENSA aborde ces questions avec une approche globale d’ouverture, à la fois dans le sens de l’éducation ouverte et des plateformes open source. Le cœur du projet est constitué de 30 enseignants et formateurs d’enseignants dans sept universités, la plupart faisant partie de l’Université européenne CIVIS, une association académique et une entreprise.

Au cours du projet, une centaine d’enseignants seront formés à l’intégration de l’enseignement mixte et co-modal dans leurs classes, avec l’intégration de la télécollaboration et de l’échange virtuel sur des sujets liés à la citoyenneté numérique. Grâce à ces actions, PENSA permettra à 400 élèves de toute l’Europe de développer leurs compétences numériques, leurs compétences plurilingues, leurs capacités de collaboration et leur autonomie d’apprentissage.

Pouvez-vous nous préciser comment les étudiant⋅es travaillent en collaboration ?
Les étudiants vont travailler en classe avec leurs enseignants et en ligne en petits groupes avec leurs camarades d’une université partenaire. Les échanges en ligne se déroulent dans la plupart des cas en trois phases. La première est une phase de prise de contact pour briser la glace. Les étudiants peuvent se présenter et comparer leurs environnements, d’études et personnels par exemple. Dans la deuxième phase, les étudiants travaillent pour analyser ensemble des « textes parallèles ». De manière générale, ces textes peuvent être des remakes de films, par exemple un groupe franco-italien comparant Bienvenue chez les Ch’tis et Benvenuti al Sud. Dans le cadre du projet PENSA, il s’agira plus spécifiquement par exemple de législations pour le déploiement de la reconnaissance faciale dans les pays respectifs. Cette deuxième phase se veut une entrée dans l’interculturel. Dans la troisième phase, les étudiants collaborent pour réaliser une production commune, un article de blog ou un poster sur une thématique en lien avec le projet, par exemple la gestion des données sur un site de réseautage social. C’est dans cette phase qu’il vont apprendre à développer leur communication et la gestion de la diversité dans une équipe, pour aller encore davantage dans l’interculturel.

capture plateforme PENSA

Comment vous est venue l’idée de travailler sur ces thématiques ?
Marco : Personnellement, de deux choses. Tout d’abord, ce sont plusieurs lectures qui ont éclairé chez moi les aspects problématiques de certains outils et plateformes numériques. Je pense aux écrits de Bernard Harcourt et plus spécifiquement son essai La Société d’exposition : désir et désobéissance à l’ère numérique, à ceux de Frank Pasquale sur l’opacité du fonctionnement des entreprises qui dominent sur Internet, ou encore les écrits sur l’autodéfense numérique du collectif italien Ippolita, également partenaire associé de PENSA.

La deuxième dynamique a été un ensemble de discussions avec des collègues et des amis, qui ont montré d’une part qu’il y avait une connaissance vague des dynamiques sur Internet et une connaissance presque nulle des outils alternatifs à disposition. À partir de là, avec plusieurs collègues on s’est réunis en février 2019 et on a travaillé à une proposition pour les appels à projet de la Commission Européenne. Puis est venue la pandémie, qui n’a fait que renforcer le besoin de développer une culture numérique chez les étudiants, mais aussi chez beaucoup de collègues.

PENSA est un projet ERASMUS+. Pouvez-vous nous en dire davantage sur ce programme européen ?
Erasmus+ est un programme connu surtout pour ses actions liées à la mobilité. Moins connues, mais tout aussi intéressantes, sont les actions liées à la coopération, tant au niveau scolaire qu’universitaire. PENSA est un projet qui s’insère dans les actions clés, pour des partenariats stratégiques dans l’enseignement supérieur. L’idée principale est de réunir plusieurs partenaires aux expertises complémentaires pour répondre à un ou plusieurs défis sociétaux.

Dans PENSA, le noyau de l’équipe est composé d’enseignants de 7 universités, de collègues d’une entreprise spécialisée dans les open coursware et d’une association internationale. Dans une formation qui s’est tenue en juin 2021, chaque membre de l’équipe a apporté quelque chose aux autres. Par exemple, j’ai pu apprendre davantage sur les outils libres spécifiques à la formation et à mieux intégrer des échanges en ligne entre mes étudiants et des étudiants ailleurs. A partir de cette collaboration, dans chacune des universités on formera d’autres collègues pour diffuser des idées et des outils pour améliorer la pédagogie universitaire.

Puisque PENSA est un projet européen, quelles sont les langues utilisées ?
Il y a 7 langues présentes dans le projet : allemand, anglais, catalan, espagnol, français, italien, roumain. Dans les échanges entre étudiants, ils utilisent soit une langue comme langue véhiculaire (typiquement l’anglais), soit les deux langues des pays concernés (par exemple allemand et français pour un échange entre étudiants à Tübingen et Aix en Provence). Pour les autres initiatives du projet, comme la formation de formateurs, on a utilisé l’anglais dans un premier temps, les langues locales ensuite.

Le plus intéressant se passe au niveau de la gestion du projet : le comité de pilotage communique en intercompréhension des langues romanes. Par les similarités entre langues latines, et avec des stratégies de communication, chacun parle dans une langue romane et les autres comprennent et répondent en d’autres langues. Dans ces réunions, on parle donc français, italien et espagnol principalement, avec des touches en catalan et roumain. Au début, ça peut être un peu déstabilisant et surtout fatiguant, mais avec la pratique on s’y fait assez vite. C’est une manière pour nous de faire vivre le plurilinguisme européen, au-delà des séparations entre langues que l’on peut avoir apprises.

photo jeunes européens
Crédit : Université Aix-Marseille

Quelle place accordez-vous au logiciel libre dans ce projet ?
Une place assez importante. D’abord, on vise à faire comprendre la différence entre « gratuit » et « libre », qui n’est pas évidente pour beaucoup de monde. Ensuite, dans la formation de formateurs on fait connaître des alternatives libres, parfois même institutionnelles, pour différents outils. Par exemple BigBlueButton comme une alternative à Zoom ou Skype. D’ailleurs, ces formations sont très intéressantes pour découvrir de nouveaux outils, même pour les personnes le plus expérimentées de l’équipe.

On prévoit aussi de développer et publier des extensions à des outils libres tels que la plateforme Moodle pour les cours hybrides ou à distance. Chez les étudiants, les formations que nous sommes en train de mettre en place visent aussi à les rendre plus conscients des enjeux de l’utilisation de plateformes gratuites grand public, par exemple sur comment elles sont conçues pour capter l’attention et extraire des données, les positionnant en tant que consommateurs. Nous espérons que cette prise de conscience contribuera à des changements dans leurs usages numériques, particulièrement par rapport aux plateformes de réseautage social.

Le côté « open » du projet se fait aussi au niveau des productions de matériel pédagogique, lequel sera mis en ligne sur les sites de la Commission Européenne et du projet.

Donc, le matériel pédagogique sera diffusé sous licence libre ? Si oui, laquelle ?
Oui, il sera diffusé en libre accès. Pour la ou les licences utilisées, ce n’est pas encore défini : ce sera discuté et décidé lors du prochain comité de pilotage.

Dernière question, traditionnelle : y a-t-il une question que l’on ne vous a pas posée ou un élément que vous souhaiteriez ajouter ?
On a probablement fait le tour. Merci bien pour cette occasion de parler de PENSA. Pour la suite et pour suivre l’évolution du projet et profiter des productions, ce sera sur le site https://pensa.univ-amu.fr/, dans la langue de votre choix 🙂