Partagez l’inventaire de votre bibliothèque avec vos proches sur inventaire.io

Inventaire.io est une application web libre qui permet de faire l’inventaire de sa bibliothèque pour pouvoir organiser le don, le prêt ou la vente de livres physiques. Une sorte de méga-bibliothèque communautaire, si l’on veut. Ces derniers mois, Inventaire s’est doté de nouvelles fonctionnalités et on a vu là l’occasion de valoriser ce projet auprès de notre communauté. On a donc demandé à Maxlath et Jums qui travaillent sur le projet de répondre à quelques unes de nos questions.

Chez Framasoft, on a d’ailleurs créé notre inventaire où l’on recense les ouvrages qu’on achète pour se documenter. Cela permet aux membres de l’association d’avoir un accès facile à notre bibliothèque interne. On a aussi fait le choix de proposer ces documents en prêt, pour que d’autres puissent y accéder.

Salut Maxlath et Jums ! Pouvez-vous vous présenter ?

Nous sommes une association de deux ans d’existence, développant le projet Inventaire, centré autour de l’application web inventaire.io, en ligne depuis 2015. On construit Inventaire comme une infrastructure libre, se basant donc autant que possible sur des standards ouverts, et des logiciels et savoirs libres : Wikipédia, Wikidata, et plus largement le web des données ouvertes.

Le projet grandit également au sein de communautés et de lieux : notamment le mouvement Wikimedia, l’archipel framasoftien à travers les Contribateliers, la MYNE et la Maison de l’Économie Circulaire sur Lyon, et Kanthaus en Allemagne.

L’association ne compte aujourd’hui que deux membres, mais le projet ne serait pas où il en est sans les nombreu⋅ses contributeur⋅ices venu⋅es nous prêter main forte, notamment sur la traduction de l’interface, la contribution aux données bibliographiques, le rapport de bugs ou les suggestions des nouvelles fonctionnalités.

Vous pouvez nous en dire plus sur Inventaire.io ? Ça sert à quoi ? C’est pour qui ?

Inventaire.io se compose de deux parties distinctes :

  • D’une part, une application web qui permet à chacun⋅e de répertorier ses livres en scannant le code barre par exemple. Une fois constitué, cet inventaire est rendu accessible à ses ami⋅es et groupes, ou publiquement, en indiquant pour chaque livre si l’on souhaite le donner, le prêter, ou le vendre. Il est ensuite possible d’envoyer des demandes pour ces livres et les utilisateur⋅ices peuvent prendre contact entre elleux pour faire l’échange (en main propre, par voie postale, peu importe, Inventaire n’est plus concerné).
  • D’autre part, une base de données publique sur les auteurs, les œuvres, les maisons d’éditions, etc, qui permet à chacun⋅e de venir enrichir les données, un peu comme dans un wiki. Le tout organisé autour des communs de la connaissance (voir plus bas) que sont Wikipédia et Wikidata. Cette base de données bibliographiques permet d’adosser les inventaires à un immense graphe de données dont nous ne faisons encore qu’effleurer les possibilités (voir plus bas).

L’inventaire de Framasoft sur inventaire.io

Inventaire.io permettant de constituer des bibliothèques distribuées, le public est extrêmement large : tou⋅tes celleux qui ont envie de partager des livres ! On a donc très envie de dire que c’est un outil pour tout le monde ! Mais comme beaucoup d’outils numériques, l’outil d’inventaire peut être trop compliqué pour des personnes qui ne baignent pas régulièrement dans ce genre d’applications. C’est encore pire une fois que l’on rentre dans la contribution aux données bibliographiques, où on aimerait concilier richesse de la donnée et facilité de la contribution. Cela dit, on peut inventorier ses livres sans trop se soucier des données, et y revenir plus tard une fois qu’on se sent plus à l’aise avec l’outil.

Par ailleurs, on rêverait de pouvoir intégrer les inventaires des professionnel⋅les du livre, bibliothèques et librairies, à cette carte des ressources, mais cela suppose soit de l’interopérabilité avec leurs outils existants, soit de leur proposer d’utiliser notre outil (ce que font déjà de petites bibliothèques, associatives par exemple), mais inventaire.io nous semble encore jeune pour une utilisation à plusieurs milliers de livres.

Quelle est l’actualité du projet ? Vous prévoyez quoi pour les prochains mois / années ?

L’actualité de ces derniers mois, c’est tout d’abord de nouvelles fonctionnalités :

  • les étagères, qui permettent de grouper des livres en sous-catégories, et qui semble rencontrer un certain succès ;
  • la mise en place de rôles, qui va permettre notamment d’ouvrir les taches avancées d’administration des données bibliographiques (fusions/suppressions d’édition, d’œuvre, d’auteur etc.) ;
  • l’introduction des collections d’éditeurs, qui permettent de valoriser le travail de curation des maisons d’édition.

Pas mal de transitions techniques sous le capot aussi. On n’est pas du genre à changer de framework tous les quatre matins, mais certains choix techniques faits au départ du projet en 2014 – CoffeeScript, Brunch, Backbone – peuvent maintenant être avantageusement remplacés par des alternatives plus récentes – dernière version de Javascript (ES2020), Webpack, Svelte – ce qui augmente la maintenabilité et le confort, voire le plaisir de coder.

Autre transition en cours, notre wiki de documentation est maintenant une instance MediaWiki choisie entre autres pour sa gestion des traductions.

Le programme des prochains mois et années n’est pas arrêté, mais il y a des idées insistantes qu’on espère voir germer prochainement :

  • la décentralisation et la fédération (voir plus bas) ;
  • les recommandations entre lectrices : aujourd’hui on peut partager de l’information sur les livres que l’on possède, mais pas les livres que l’on apprécie, recommande ou recherche. Même si une utilisation détournée de l’outil est possible en ce sens et nous met aussi en joie (oui, c’est marrant de voir des humains détourner une utilisation), on devrait pouvoir proposer quelque chose pensé pour ;
  • des paramètres de visibilité d’un livre ou d’une étagère plus élaborés : aujourd’hui, les seuls modes de partage possible sont privé/amis et groupes/public, or amis et groupes ça peut être des personnes très différentes avec qui on n’a pas nécessairement envie de partager les mêmes choses.

Enfin tout ça c’est ce qu’on fait cachés derrière un écran, mais on aimerait bien aussi expérimenter avec des formats d’évènements, type BiblioParty : venir dans un lieu avec une belle bibliothèque et aider le lieu à en faire l’inventaire.

C’est quoi le modèle économique derrière inventaire.io ? Quelles sont/seront vos sources de financement ?
Pendant les premières années, l’aspect « comment on gagne de l’argent » était une question volontairement laissée de côté, on vivait avec quelques prestations en micro-entrepreneurs, notamment l’année dernière où nous avons réalisé une preuve de concept pour l’ABES (l’Agence bibliographique pour l’enseignement supérieur) et la Bibliothèque Nationale de France. Peu après, nous avons fondé une association loi 1901 à activité économique (voir les statuts), ce qui devrait nous permettre de recevoir des dons, que l’on pourra compléter si besoin par de la prestation de services. Pour l’instant, on compte peu sur les dons individuels car on est financé par NLNet via le NGI0 Discovery Fund.

Et sous le capot, ça fonctionne comment ? Vous utilisez quoi comme technos pour faire tourner le service ?
Le serveur est en NodeJS, avec une base de données CouchDB, synchronisé à un Elasticsearch pour la recherche, et LevelDB pour les données en cache. Ce serveur produit une API JSON (documentée sur https://api.inventaire.io) consommée principalement par le client : une webapp qui a la responsabilité de tout ce qui est rendu de l’application dans le navigateur. Cette webapp consiste en une bonne grosse pile de JS, de templates, et de CSS, initialement organisée autour des framework Backbone.Marionnette et Handlebars, lesquels sont maintenant dépréciés en faveur du framework Svelte. Une visualisation de l’ensemble de la pile technique peut être trouvée sur https://stack.inventaire.io.

Le nom est assez français… est-ce que ça ne pose pas de problème pour faire connaître le site et le logiciel à l’international ? Et d’ailleurs, est-ce que vous avez une idée de la répartition linguistique de vos utilisatrices ? (francophones, anglophones, germanophones, etc.)
Oui, le nom peut être un problème au début pour les non-francophones, lequel⋅les ne savent pas toujours comment l’écrire ou le prononcer. Cela fait donc un moment qu’on réfléchit à en changer, mais après le premier contact, ça ne semble plus poser de problème à l’utilisation (l’un des comptes les plus actifs étant par exemple une bibliothèque associative allemande), alors pour le moment on fait avec ce qu’on a.

Sticker inventaire.io

En termes de répartition linguistique, une bonne moitié des utilisateur⋅ices et contributeur⋅ices sont francophones, un tiers anglophones, puis viennent, en proportion beaucoup plus réduite (autour de 2%), l’allemand, l’espagnol, l’italien, suivi d’une longue traîne de langues européennes mais aussi : arabe, néerlandais, portugais, russe, polonais, danois, indonésien, chinois, suédois, turc, etc. À noter que la plupart de ces langues ne bénéficiant pas d’une traduction complète de l’interface à ce jour, il est probable qu’une part conséquente des utilisatrices utilisent l’anglais, faute d’une traduction de l’interface satisfaisante dans leur langue (malgré les 15 langues traduites à plus de 50%).

À ce que je comprends, vous utilisez donc des données provenant de Wikidata. Pouvez-vous expliquer à celles et ceux qui parmi nous ne sont pas très au point sur la notion de web de données quels sont les enjeux et les applications possibles de Wikidata ?
Tout comme le web a introduit l’hypertexte pour pouvoir lier les écrits humains entre eux (par exemple un article de blog renvoie vers un autre article de blog quelque part sur le web), le web des données ouvertes permet aux bases de données de faire des liens entre elles. Cela permet par exemple à des bibliothèques nationales de publier des données bibliographiques que l’on peut recouper : « Je connais cette auteure avec tel identifiant unique dans ma base. Je sais aussi qu’une autre base de données lui a donné cet autre identifiant unique ; vous pouvez donc aller voir là-bas s’ils en savent plus ». Beaucoup d’institutions s’occupent de créer ces liens, mais la particularité de Wikidata, c’est que, tout comme Wikipédia, tout le monde peut participer, discuter, commenter ce travail de production de données et de mise en relation.

L’éditeur de données, très facile d’utilisation, permet le partage vers wikidata.

Est-ce qu’il serait envisageable d’établir un lien vers la base de données de https://www.recyclivre.com/ quand l’ouvrage recherché ne figure dans aucun « inventaire » de participant⋅es ?
Ça pose au moins deux problèmes :

  • Ce service et d’autres qui peuvent être sympathiques, telles que les plateformes mutualisées de librairies indépendantes (leslibraires.fr, placedeslibraires.fr, librairiesindependantes.com, etc.), ne semblent pas intéressés par l’inter-connexion avec le reste du web, construisant leurs URL avec des identifiants à eux (seul le site librairiesindependantes.com semble permettre de construire une URL avec un ISBN, ex : https://www.librairiesindependantes.com/product/9782253260592/) et il n’existe aucune API publique pour interroger leurs bases de données : il est donc impossible, par exemple, d’afficher l’état des stocks de ces différents services.
  • D’autre part, recyclivre est une entreprise à but lucratif (SAS), sans qu’on leur connaisse un intérêt pour les communs (code et base de données propriétaires). Alors certes ça cartonne, c’est efficace, tout ça, mais ce n’est pas notre priorité : on aimerait être mieux connecté avec celleux qui, dans le monde du livre, veulent participer aux communs : les bibliothèques nationales, les projets libres comme OpenLibrary, lib.reviews, Bookwyrm, Readlebee, etc.

Cependant la question de la connexion avec des organisations à but lucratif pose un vrai problème : l’objectif de l’association Inventaire — cartographier les ressources où qu’elles soient — implique à un moment de faire des liens vers des organisations à but lucratif. En suivant l’esprit libriste, il n’y a aucune raison de refuser a priori l’intégration de ces liens, les développeuses de logiciels libres n’étant pas censé contraindre les comportements des utilisatrices ; mais ça pique un peu de travailler gratuitement, sans contrepartie pour les communs.

En quoi inventaire.io participe à un mouvement plus large qui est celui des communs de la connaissance ?
Inventaire, dans son rôle d’annuaire des ressources disponibles, essaye de valoriser les communs de la connaissance, en mettant des liens vers les articles Wikipédia, vers les œuvres dans le domaine public disponibles en format numérique sur des sites comme Wikisource, Gutenberg ou Internet Archive. En réutilisant les données de Wikidata, Inventaire contribue également à valoriser ce commun de la connaissance et à donner à chacun une bonne raison de l’enrichir.

Une interface simple pour ajouter un livre à son inventaire

Inventaire est aussi un commun en soi : le code est sous licence AGPL, les données bibliographiques sous licence CC0. L’organisation légale en association vise à ouvrir la gouvernance de ce commun à ses contributeur⋅ices. Le statut associatif garantit par ailleurs qu’il ne sera pas possible de transférer les droits sur ce commun à autre chose qu’une association poursuivant les mêmes objectifs.

Si je suis une organisation ou un particulier qui héberge des services en ligne, est-ce que je peux installer ma propre instance d’inventaire.io ?
C’est possible, mais déconseillé en l’état. Notamment car les bases de données bibliographiques de ces différentes instances ne seraient pas synchronisées, ce qui multiplie par autant le travail nécessaire à l’amélioration des données. Comme il n’y a pas encore de mécanisme de fédération des inventaires, les comptes de votre instance seraient donc isolés. Sur ces différents sujets, voir cette discussion : https://github.com/inventaire/inventaire/issues/187 (en anglais).

Cela dit, si vous ne souhaitez pas vous connecter à inventaire.io, pour quelque raison que ce soit, et malgré les mises en garde ci-dessus, vous pouvez vous rendre sur https://github.com/inventaire/inventaire-deploy/ pour déployer votre propre instance « infédérable ». On va travailler sur le sujet dans les mois à venir pour tendre vers plus de décentralisation.

A l’heure où il est de plus en plus urgent de décentraliser le web, envisagez-vous qu’à terme, il sera possible d’installer plusieurs instances d’inventaire.io et de les connecter les unes aux autres ?
Pour la partie réseau social d’inventaires, une décentralisation devrait être possible, même si cela pose des questions auquel le protocole ActivityPub ne semble pas proposer de solution. Ensuite, pour la partie base de données contributives, c’est un peu comme si on devait maintenir plusieurs instances d’OpenStreetMap en parallèle. C’est difficile et il semble préférable de garder cette partie centralisée, mais puisqu’il existe plein de services bibliographiques différents, il va bien falloir s’interconnecter un jour.

Vous savez sûrement que les Chevaliers Blancs du Web Libre sont à cran et vont vous le claironner : vous restez vraiment sur GitHub pour votre dépôt de code https://github.com/inventaire ou bien… ?
La pureté militante n’a jamais été notre modèle. Ce compte date de 2014, à l’époque Github avait peu d’alternatives… Cela étant, il est certain que nous ne resterons pas éternellement chez Microsoft, ni chez Transifex ou Trello, mais les solutions auto-hébergées c’est du boulot, et celles hébergées par d’autres peuvent se révéler instables.

Si on veut contribuer à Inventaire.io, on fait ça où ? Quels sont les différentes manière d’y contribuer ?
Il y a plein de manières de venir contribuer, et pas que sur du code, loin de là : on peut améliorer la donnée sur les livres, la traduction, la documentation et plus généralement venir boire des coups et discuter avec nous de la suite ! Rendez-vous sur https://wiki.inventaire.io/wiki/How_to_contribute/fr.

Est-ce que vous avez déjà eu vent d’outils tiers qui utilisent l’API ? Si oui, vous pouvez donner des noms ? À quoi servent-ils ?
Readlebee et Bookwyrm sont des projets libres d’alternatives à GoodReads. Le premier tape régulièrement dans les données bibliographiques d’Inventaire. Le second vient de mettre en place un connecteur pour chercher de la donnée chez nous. A noter : cela apporte une complémentarité puisque ces deux services sont orientés vers les critiques de livres, ce qui reste très limité sur Inventaire.

Et comme toujours, sur le Framablog, on vous laisse le mot de la fin !
Inventaire est une app faite pour utiliser moins d’applications, pour passer du temps à lire des livres, papier ou non, et partager les dernières trouvailles. Pas de capture d’attention ici, si vous venez deux fois par an pour chiner des bouquins, ça nous va très bien ! Notre contributopie c’est un monde où l’information sur la disponibilité des objets qui nous entoure nous affranchit d’une logique de marché généralisée. Un monde où tout le monde peut contribuer à casser les monopoles de l’information sur les ressources que sont les géants du web et de la distribution. Pouvoir voir ce qui est disponible dans un endroit donné, sans pour autant dépendre ni d’un système cybernétique central, ni d’un marché obscur où les entreprises qui payent sont dorlotées par un algorithme de recommandations.

Merci beaucoup Maxlath et Jums pour ces explications et on souhaite longue vie à Inventaire. Et si vous aussi vous souhaitez mettre en commun votre bibliothèque, n’hésitez pas !




« Va te faire foutre, Twitter ! » dit Aral Balkan

Avec un ton acerbe contre les géants du numérique, Aral Balkan nourrit depuis plusieurs années une analyse lucide et sans concession du capitalisme de surveillance. Nous avons maintes fois publié des traductions de ses diatribes.

Ce qui fait la particularité de ce nouvel article, c’est qu’au-delà de l’adieu à Twitter, il retrace les étapes de son cheminement.

Sa trajectoire est mouvementée, depuis l’époque où il croyait (« quel idiot j’étais ») qu’il suffisait d’améliorer le système. Il revient donc également sur ses années de lutte contre les plateformes prédatrices et les startups .

Il explique quelle nouvelle voie constructive il a adoptée ces derniers temps, jusqu’à la conviction qu’il faut d’urgence « construire l’infrastructure technologique alternative qui sera possédée et contrôlée par des individus, pas par des entreprises ou des gouvernements ». Dans cette perspective, le Fediverse a un rôle important à jouer selon lui.

Article original : Hell Site

Traduction Framalang : Aliénor, Fabrice, goofy, Susy, Wisi_eu

Le site de l’enfer

par Aral Balkan

Sur le Fédiverse, ils ont un terme pour Twitter.
Ils l’appellent « le site de l’enfer ».
C’est très approprié.

Lorsque je m’y suis inscrit, il y a environ 15 ans, vers fin 2006, c’était un espace très différent. Un espace modeste, pas géré par des algorithmes, où on pouvait mener des discussions de groupe avec ses amis.
Ce que je ne savais pas à l’époque, c’est que Twitter, Inc. était une start-up financée avec du capital risque.
Même si j’avais su, ça n’aurait rien changé, vu que je n’avais aucune idée sur le financement ou les modèles commerciaux. Je pensais que tout le monde dans la tech essayait simplement de fabriquer les nouvelles choses du quotidien pour améliorer la vie des gens.

Même six ans après, en 2012, j’en étais encore à me concentrer sur l’amélioration de l’expérience des utilisateurs avec le système actuel :

« Les objets ont de la valeur non par ce qu’ils sont, mais par ce qu’ils nous permettent de faire. Et, en tant que personnes qui fabriquons des objets, nous avons une lourde responsabilité. La responsabilité de ne pas tenir pour acquis le temps limité dont chacun d’entre nous dispose en ce monde. La responsabilité de rendre ce temps aussi beau, aussi confortable, aussi indolore, aussi exaltant et aussi agréable que possible à travers les expériences que nous créons.
Parce que c’est tout ce qui compte.
Et il ne tient qu’à nous de le rendre meilleur. »
– C’est tout ce qui compte.

C’est tout ce qui compte.

Quel idiot j’étais, pas vrai ?
Vous pouvez prendre autant de temps que nécessaire pour me montrer du doigt et ricaner.
Ok, c’est fait ? Continuons…

Privilège est simplement un autre mot pour dire qu’on s’en fiche

À cette époque, je tenais pour acquis que le système en général est globalement bon. Ou du moins je ne pensais pas qu’il était activement mauvais 1.
Bien sûr, j’étais dans les rues à Londres, avec des centaines de milliers de personnes manifestant contre la guerre imminente en Irak. Et bien sûr, j’avais conscience que nous vivions dans une société inégale, injuste, raciste, sexiste et classiste (j’ai étudié la théorie critique des médias pendant quatre ans, du coup j’avais du Chomsky qui me sortait de partout), mais je pensais, je ne sais comment, que la tech existait en dehors de cette sphère. Enfin, s’il m’arrivait de penser tout court.

Ce qui veut clairement dire que les choses n’allaient pas assez mal pour m’affecter personnellement à un point où je ressentais le besoin de me renseigner à ce sujet. Et ça, tu sais, c’est ce qu’on appelle privilège.
Il est vrai que ça me faisait bizarre quand l’une de ces start-ups faisait quelque chose qui n’était pas dans notre intérêt. Mais ils nous ont dit qu’ils avaient fait une erreur et se sont excusés alors nous les avons crus. Pendant un certain temps. Jusqu’à ce que ça devienne impossible.

Et, vous savez quoi, j’étais juste en train de faire des « trucs cools » qui « améliorent la vie des gens », d’abord en Flash puis pour l’IPhone et l’IPad…
Mais je vais trop vite.
Retournons au moment où j’étais complètement ignorant des modèles commerciaux et du capital risque. Hum, si ça se trouve, vous en êtes à ce point-là aujourd’hui. Il n’y a pas de honte à avoir. Alors écoutez bien, voici le problème avec le capital risque.

Ce qui se passe dans le Capital Risque reste dans le Capital Risque

Le capital risque est un jeu de roulette dont les enjeux sont importants, et la Silicon Valley en est le casino.
Un capital risqueur va investir, disons, 5 millions de dollars dans dix start-ups tout en sachant pertinemment que neuf d’entre elles vont échouer. Ce dont a besoin ce monsieur (c’est presque toujours un « monsieur »), c’est que celle qui reste soit une licorne qui vaudra des milliards. Et il (c’est presque toujours il) n’investit pas son propre argent non plus. Il investit l’argent des autres. Et ces personnes veulent récupérer 5 à 10 fois plus d’argent, parce que ce jeu de roulette est très risqué.

Alors, comment une start-up devient-elle une licorne ? Eh bien, il y a un modèle commercial testé sur le terrain qui est connu pour fonctionner : l’exploitation des personnes.

Voici comment ça fonctionne:

1. Rendez les gens accros

Offrez votre service gratuitement à vos « utilisateurs » et essayez de rendre dépendants à votre produit le plus de gens possible.
Pourquoi?
Parce qu’il vous faut croître de manière exponentielle pour obtenir l’effet de réseau, et vous avez besoin de l’effet de réseau pour enfermer les gens que vous avez attirés au début.
Bon dieu, des gens très importants ont même écrit des guides pratiques très vendus sur cette étape, comme Hooked : comment créer un produit ou un service qui ancre des habitudes.
Voilà comment la Silicon Valley pense à vous.

2. Exploitez-les

Collectez autant de données personnelles que possible sur les gens.
Pistez-les sur votre application, sur toute la toile et même dans l’espace physique, pour créer des profils détaillés de leurs comportements. Utilisez cet aperçu intime de leurs vies pour essayer de les comprendre, de les prédire et de les manipuler.
Monétisez tout ça auprès de vos clients réels, qui vous paient pour ce service.
C’est ce que certains appellent le Big Data, et que d’autres appellent le capitalisme de surveillance.

3. Quittez la scène (vendez)

Une start-up est une affaire temporaire, dont le but du jeu est de se vendre à une start-up en meilleure santé ou à une entreprise existante de la Big Tech, ou au public par le biais d’une introduction en Bourse.
Si vous êtes arrivé jusque-là, félicitations. Vous pourriez fort bien devenir le prochain crétin milliardaire et philanthrope en Bitcoin de la Silicon Valley.
De nombreuses start-ups échouent à la première étape, mais tant que le capital risque a sa précieuse licorne, ils sont contents.

Des conneries (partie 1)

Je ne savais donc pas que le fait de disposer de capital risque signifiait que Twitter devait connaître une croissance exponentielle et devenir une licorne d’un milliard de dollars. Je n’avais pas non plus saisi que ceux d’entre nous qui l’utilisaient – et contribuaient à son amélioration à ce stade précoce – étaient en fin de compte responsables de son succès. Nous avons été trompés. Du moins, je l’ai été et je suis sûr que je ne suis pas le seul à ressentir cela.

Tout cela pour dire que Twitter était bien destiné à devenir le Twitter qu’il est aujourd’hui dès son premier « investissement providentiel » au tout début.
C’est ainsi que se déroule le jeu du capital risque et des licornes dans la Silicon Valley. Voilà ce que c’est. Et c’est tout ce à quoi j’ai consacré mes huit dernières années : sensibiliser, protéger les gens et construire des alternatives à ce modèle.

Voici quelques enregistrements de mes conférences datant de cette période, vous pouvez regarder :

Dans le cadre de la partie « sensibilisation », j’essayais également d’utiliser des plateformes comme Twitter et Facebook à contre-courant.
Comme je l’ai écrit dans Spyware vs Spyware en 2014 : « Nous devons utiliser les systèmes existants pour promouvoir nos alternatives, si nos alternatives peuvent exister tout court. » Même pour l’époque, c’était plutôt optimiste, mais une différence cruciale était que Twitter, au moins, n’avait pas de timeline algorithmique.

Les timelines algorithmiques (ou l’enfumage 2.0)

Qu’est-ce qu’une timeline algorithmique ? Essayons de l’expliquer.
Ce que vous pensez qu’il se passe lorsque vous tweetez: « j’ai 44 000 personnes qui me suivent. Quand j’écris quelque chose, 44 000 personnes vont le voir ».
Ce qui se passe vraiment lorsque vous tweetez : votre tweet pourrait atteindre zéro, quinze, quelques centaines, ou quelques milliers de personnes.

Et ça dépend de quoi?
Dieu seul le sait, putain.
(Ou, plus exactement, seul Twitter, Inc. le sait.)

Donc, une timeline algorithmique est une boîte noire qui filtre la réalité et décide de qui voit quoi et quand, sur la base d’un lot de critères complètement arbitraires déterminés par l’entreprise à laquelle elle appartient.
En d’autres termes, une timeline algorithmique est simplement un euphémisme pour parler d’un enfumage de masse socialement acceptable. C’est de l’enfumage 2.0.

L’algorithme est un trouduc

La nature de l’algorithme reflète la nature de l’entreprise qui en est propriétaire et l’a créé.

Étant donné que les entreprises sont sociopathes par nature, il n’est pas surprenant que leurs algorithmes le soient aussi. En bref, les algorithmes d’exploiteurs de personnes comme Twitter et Facebook sont des connards qui remuent la merde et prennent plaisir à provoquer autant de conflits et de controverses que possible.
Hé, qu’attendiez-vous exactement d’un milliardaire qui a pour bio #Bitcoin et d’un autre qui qualifie les personnes qui utilisent sont utilisées par son service de « pauvres cons » ?
Ces salauds se délectent à vous montrer des choses dont ils savent qu’elles vont vous énerver dans l’espoir que vous riposterez. Ils se délectent des retombées qui en résultent. Pourquoi ? Parce que plus il y a d’« engagement » sur la plateforme – plus il y a de clics, plus leurs accros («utilisateurs») y passent du temps – plus leurs sociétés gagnent de l’argent.

Eh bien, ça suffit, merci bien.

Des conneries (partie 2)

Certes je considère important de sensibiliser les gens aux méfaits des grandes entreprises technologiques, et j’ai probablement dit et écrit tout ce qu’il y a à dire sur le sujet au cours des huit dernières années. Rien qu’au cours de cette période, j’ai donné plus d’une centaine de conférences, sans parler des interviews dans la presse écrite, à la radio et à la télévision.
Voici quelques liens vers une poignée d’articles que j’ai écrits sur le sujet au cours de cette période :

Est-ce que ça a servi à quelque chose ?
Je ne sais pas.
J’espère que oui.
J’ai également interpellé d’innombrables personnes chez les capitalistes de la surveillance comme Google et Facebook sur Twitter et – avant mon départ il y a quelques années – sur Facebook, et ailleurs. (Quelqu’un se souvient-il de la fois où j’ai réussi à faire en sorte que Samuel L. Jackson interpelle Eric Schmidt sur le fait que Google exploite les e-mails des gens?) C’était marrant. Mais je m’égare…
Est-ce que tout cela a servi à quelque chose ?
Je ne sais pas.
J’espère que oui.
Mais voici ce que je sais :
Est-ce que dénoncer les gens me rend malheureux ? Oui.
Est-ce que c’est bien ? Non.
Est-ce que j’aime les conflits ? Non.
Alors, trop c’est trop.
Les gens viennent parfois me voir pour me remercier de « parler franchement ». Eh bien, ce « parler franchement » a un prix très élevé. Alors peut-être que certaines de ces personnes peuvent reprendre là où je me suis arrêté. Ou pas. Dans tous les cas, j’en ai fini avec ça.

Dans ta face

Une chose qu’il faut comprendre du capitalisme de surveillance, c’est qu’il s’agit du courant dominant. C’est le modèle dominant. Toutes les grandes entreprises technologiques et les startups en font partie2. Et être exposé à leurs dernières conneries et aux messages hypocrites de personnes qui s’y affilient fièrement tout en prétendant œuvrer pour la justice sociale n’est bon pour la santé mentale de personne.

C’est comme vivre dans une ferme industrielle appartenant à des loups où les partisans les plus bruyants du système sont les poulets qui ont été embauchés comme chefs de ligne.

J’ai passé les huit dernières années, au moins, à répondre à ce genre de choses et à essayer de montrer que la Big Tech et le capitalisme de surveillance ne peuvent pas être réformés.
Et cela me rend malheureux.
J’en ai donc fini de le faire sur des plates-formes dotées d’algorithmes de connards qui s’amusent à m’infliger autant de misère que possible dans l’espoir de m’énerver parce que cela «fait monter les chiffres».

Va te faire foutre, Twitter !
J’en ai fini avec tes conneries.

"fuck twitter" par mowl.eu, licence CC BY-NC-ND 2.0
« fuck twitter » par mowl.eu, licence CC BY-NC-ND 2.0

Et après ?

À bien des égards, cette décision a été prise il y a longtemps. J’ai créé mon propre espace sur le fediverse en utilisant Mastodon il y a plusieurs années et je l’utilise depuis. Si vous n’avez jamais entendu parler du fediverse, imaginez-le de la manière suivante :
Imaginez que vous (ou votre groupe d’amis) possédez votre propre copie de twitter.com. Mais au lieu de twitter.com, le vôtre se trouve sur votre-place.org. Et à la place de Jack Dorsey, c’est vous qui fixez les règles.

Vous n’êtes pas non plus limité à parler aux gens sur votre-place.org.

Je possède également mon propre espace sur mon-espace.org (disons que je suis @moi@mon-espace.org). Je peux te suivre @toi@ton-espace.org et aussi bien @eux@leur.site et @quelquun-dautre@un-autre.espace. Ça marche parce que nous parlons tous un langage commun appelé ActivityPub.
Donc imaginez un monde où il y a des milliers de twitter.com qui peuvent tous communiquer les uns avec les autres et Jack n’a rien à foutre là-dedans.

Eh bien, c’est ça, le Fediverse.
Et si Mastodon n’est qu’un moyen parmi d’autres d’avoir son propre espace dans le Fediverse, joinmastodon.org est un bon endroit pour commencer à se renseigner sur le sujet et mettre pied à l’étrier de façon simple sans avoir besoin de connaissances techniques. Comme je l’ai déjà dit, je suis sur le Fediverse depuis les débuts de Mastodon et j’y copiais déjà manuellement les posts sur Twitter.
Maintenant j’ai automatisé le processus via moa.party et, pour aller de l’avant, je ne vais plus me connecter sur Twitter ou y répondre3.
Vu que mes posts sur Mastodon sont maintenant automatiquement transférés là-bas, vous pouvez toujours l’utiliser pour me suivre, si vous en avez envie. Mais pourquoi ne pas utiliser cette occasion de rejoindre le Fediverse et vous amuser ?

Small is beautiful

Si je pense toujours qu’avoir des bonnes critiques de la Big Tech est essentiel pour peser pour une régulation efficace, je ne sais pas si une régulation efficace est même possible étant donné le niveau de corruption institutionnelle que nous connaissons aujourd’hui (lobbies, politique des chaises musicales, partenariats public-privé, captation de réglementation, etc.)
Ce que je sais, c’est que l’antidote à la Big Tech est la Small Tech.

Nous devons construire l’infrastructure technologique alternative qui sera possédée et contrôlée par des individus, pas par des entreprises ou des gouvernements. C’est un prérequis pour un futur qui respecte la personne humaine, les droits humains, la démocratie et la justice sociale.

Dans le cas contraire, nous serons confrontés à des lendemains sombres où notre seul recours sera de supplier un roi quelconque, de la Silicon Valley ou autre, « s’il vous plaît monseigneur, soyez gentil ».

Je sais aussi que travailler à la construction de telles alternatives me rend heureux alors que désespérer sur l’état du monde ne fait que me rendre profondément malheureux. Je sais que c’est un privilège d’avoir les compétences et l’expérience que j’ai, et que cela me permet de travailler sur de tels projets. Et je compte bien les mettre à contribution du mieux possible.
Pour aller de l’avant, je prévois de concentrer autant que possible de mon temps et de mon énergie à la construction d’un Small Web.

Si vous avez envie d’en parler (ou d’autre chose), vous pouvez me trouver sur le Fediverse.
Vous pouvez aussi discuter avec moi pendant mes live streams S’update et pendant nos live streams Small is beautiful avec Laura.

Des jours meilleurs nous attendent…

Prenez soin de vous.

Portez-vous bien.

Aimez-vous les uns les autres.

 




À 23 ans, cURL se rend utile partout

Non, ce n’est pas une marque de biscuits apéritifs aux cacahuètes, mais un outil logiciel méconnu qui mérite pourtant de faire partie de notre culture numérique. On révise ?

Bien qu’ignoré de la plupart des internautes, il est d’un usage familier pour celles et ceux qui travaillent en coulisses pour le Web. L’adage : « si un site web n’est pas « curlable », ce n’est pas du Web » fait de curl un outil majeur pour définir ce qu’est le Web aujourd’hui.

Son développeur principal suédois Daniel Stenberg retrace ici la genèse de cURL, son continu développement et surtout, ce qui devrait intéresser les moins geeks de nos lecteurs, son incroyable diffusion, à travers sa bibliothèque libcurl, au cœur de tant d’objets et appareils familiers. Après des débuts fort modestes, « la quasi-totalité des appareils connectés à Internet exécutent curl » !

Si vous n’êtes pas développeur et que les caractéristiques techniques de curl sont pour vous un peu obscures, allez directement à la deuxième partie de l’article pour en comprendre facilement l’importance.

 

Article original sur le blog de l’auteur : curl is 23 years old today
Traduction : Fabrice, Goofy, Julien/Sphinx, jums, NGFChristian, tTh,

curl fête son 23e anniversaire

par Daniel Stenberg
La date de naissance officielle de curl, le 20 mars 1998, marque le jour de la toute première archive tar qui pouvait installer un outil nommé curl. Je l’ai créé et nommé curl 4.0 car je voulais poursuivre la numérotation de versions que j’avais déjà utilisée pour les noms précédents de l’outil. Ou plutôt, j’ai fait un saut depuis la 3.12, qui était la dernière version que j’avais utilisée avec le nom précédent : urlget.

Bien sûr, curl n’a pas été créé à partir de rien ce jour-là. Son histoire commence une petite année plus tôt : le 11 novembre 1996 a été publié un outil appelé httpget, développé par Rafael Sagula. C’est un projet j’avais trouvé et auquel j’avais commencé à contribuer. httpget 0.1 était un fichier de code C de moins de 300 lignes. (La plus ancienne version dont j’aie encore le code source est httpget 1.3, retrouvée ici)

Comme je l’ai évoqué à de multiples reprises, j’ai commencé à m’attaquer à ce projet parce que je voulais avoir un petit outil pour télécharger des taux de change régulièrement depuis un site internet et les fournir via mon petit bot 4 de taux de change sur IRC5.

Ces petites décisions prises rapidement à cette époque allaient avoir plus tard un impact significatif et influencer ma vie. curl a depuis toujours été l’un de mes passe-temps principaux. Et bien sûr il s’agit aussi d’un travail à plein temps depuis quelques années désormais.

En ce même jour de novembre 1996 a été distribué pour la première fois le programme Wget (1.4.0). Ce projet existait déjà sous un autre nom avant d’être distribué, et je crois me souvenir que je ne le connaissais pas, j’utilisais httpget pour mon robogiciel. Peut-être que j’avais vu Wget et que je ne l’utilisais pas à cause de sa taille : l’archive tar de Wget 1.4.0 faisait 171 ko.

Peu de temps après, je suis devenu le responsable de httpget et j’ai étendu ses fonctionnalités. Il a ensuite été renommé urlget quand je lui ai ajouté le support de Gopher et de FTP (ce que j’ai fait parce que j’avais trouvé des taux de change sur des serveurs qui utilisaient ces protocoles). Au printemps 1998, j’ai ajouté le support de l’envoi par FTP et comme le nom du programme ne correspondait plus clairement à ses fonctionnalités j’ai dû le renommer une fois de plus6.

Nommer les choses est vraiment difficile. Je voulais un nom court dans le style d’Unix. Je n’ai pas planché très longtemps puisque j’ai trouvé un mot marrant assez rapidement. L’outil fonctionne avec des URL, et c’est un client Internet. « c » pour client et URL ont fait que « cURL » semblait assez pertinent et marrant. Et court. Bien dans de style d’Unix.

J’ai toujours voulu que curl soit un citoyen qui s’inscrive dans la tradition Unix d’utiliser des pipes7, la sortie standard, etc. Je voulais que curl fonctionne comme la commande cat, mais avec des URL. curl envoie donc par défaut le contenu de l’URL sur la sortie standard dans le terminal. Tout comme le fait cat. Il nous permettra donc de « voir » le contenu de l’URL. La lettre C se prononce si (Ndt : ou see, « voir » en anglais) donc « see URL » fonctionne aussi. Mon esprit blagueur n’en demande pas plus, mais je dis toujours « kurl ».


Le logo original, créé en 1998 par Henrik Hellerstedt

J’ai créé le paquet curl 4.0 et l’ai rendu public ce vendredi-là. Il comprenait alors 2 200 lignes de code. Dans la distribution de curl 4.8 que j’ai faite quelques mois plus tard, le fichier THANKS mentionnait 7 contributeurs[Note] Daniel Stenberg, Rafael Sagula, Sampo Kellomaki, Linas Vepstas, Bjorn Reese, Johan Anderson, Kjell Ericson[/note]. Ça nous a pris presque sept ans pour atteindre une centaine de contributeurs. Aujourd’hui, ce fichier liste plus de 2 300 noms et nous ajoutons quelques centaines de noms chaque année. Ce n’est pas un projet solo !

Il ne s’est rien passé de spécial

curl n’a pas eu un succès massif. Quelques personnes l’ont découvert et deux semaines après cette première distribution, j’ai envoyé la 4.1 avec quelques corrections de bugs et une tradition de plusieurs décennies a commencé : continuer à publier des mises à jour avec des corrections de bug. « Distribuer tôt et souvent » est un mantra auquel nous nous sommes conformés.

Plus tard en 1998, après plus de quinze distributions, notre page web présentait cette excellente déclaration :

Capture d’écran : Liste de diffusion. Pour cause de grande popularité, nous avons lancé une liste de diffusion pour parler de cet outil. (La version 4.8.4 a été téléchargée à elle seule plus de 300 fois depuis ce site.)

 

Trois cents téléchargements !

Je n’ai jamais eu envie de conquérir le monde ou nourri de visions idylliques pour ce projet et cet outil. Je voulais juste que les transferts sur Internet soient corrects, rapides et fiables, et c’est ce sur quoi j’ai travaillé.

Afin de mieux procurer au monde entier de quoi réaliser de bons transferts sur Internet, nous avons lancé la bibliothèque libcurl, publiée pour la première fois à l’été 2000. Cela a permis au projet de se développer sous un autre angle 8. Avec les années, libcurl est devenue de facto une API de transfert Internet.

Aujourd’hui, alors qu’il fête son 23e anniversaire, c’est toujours principalement sous cet angle que je vois le cœur de mon travail sur curl et ce que je dois y faire. Je crois que si j’ai atteint un certain succès avec curl avec le temps, c’est principalement grâce à une qualité spécifique. En un mot :

Persistance

 

Nous tenons bon. Nous surmontons les problèmes et continuons à perfectionner le produit. Nous sommes dans une course de fond. Il m’a fallu deux ans (si l’on compte à partir des précurseurs) pour atteindre 300 téléchargements. Il en a fallu dix ou presque pour qu’il soit largement disponible et utilisé.

En 2008, le site web pour curl a servi 100 Go de données par mois. Ce mois-ci, c’est 15 600 Go (soit fait 156 fois plus en 156 mois) ! Mais bien entendu, la plupart des utilisatrices et utilisateurs ne téléchargent rien depuis notre site, c’est leur distribution ou leur système d’exploitation qui leur met à disposition curl.

curl a été adopté au sein de Red Hat Linux à la fin de l’année 1998, c’est devenu un paquet Debian en mai 1999 et faisait partie de Mac OS X 10.1 en août 2001. Aujourd’hui, il est distribué par défaut dans Windows 10 et dans les appareils iOS et Android. Sans oublier les consoles de jeux comme la Nintendo Switch, la Xbox et la PS5 de Sony.

Ce qui est amusant, c’est que libcurl est utilisé par les deux principaux systèmes d’exploitation mobiles mais que ces derniers n’exposent pas d’API pour ses fonctionnalités. Aussi, de nombreuses applications, y compris celles qui sont largement diffusées, incluent-elles leur propre version de libcurl : YouTube, Skype, Instagram, Spotify, Google Photos, Netflix, etc. Cela signifie que la plupart des personnes qui utilisent un smartphone ont curl installé plusieurs fois sur leur téléphone.

Par ailleurs, libcurl est utilisé par certains des jeux vidéos les plus populaires : GTA V, Fortnite, PUBG mobile, Red Dead Redemption 2, etc.

libcurl alimente les fonctionnalités de lecteurs média ou de box comme Roku, Apple TV utilisés par peut-être un demi milliard de téléviseurs.

curl et libcurl sont pratiquement intégrés dans chaque serveur Internet, c’est le moteur de transfert par défaut de PHP qui est lui-même utilisé par environ 80% des deux milliards de sites web.

Maintenant que les voitures sont connectées à Internet, libcurl est utilisé dans presque chaque voiture moderne pour le transfert de données depuis et vers les véhicules.

À cela s’ajoutent les lecteurs média, les appareils culinaires ou médicaux, les imprimantes, les montres intelligentes et les nombreux objets « intelligents » connectés à Internet. Autrement dit, la quasi-totalité des appareils connectés à Internet exécutent curl.

Je suis convaincu que je n’exagère pas quand je déclare que curl existe sur plus de dix milliards d’installations sur la planète.

Seuls et solides

À plusieurs reprises lors de ces années, j’ai essayé de voir si curl pouvait rejoindre une organisation cadre mais aucune n’a accepté et, en fin de compte, je pense que c’est mieux ainsi. Nous sommes complètement seuls et indépendants de toute organisation ou entreprise. Nous faisons comme nous l’entendons et nous ne suivons aucune règle édictée par d’autres. Ces dernières années, les dons et les soutiens financiers se sont vraiment accélérés et nous sommes désormais en situation de pouvoir confortablement payer des récompenses pour la chasse aux bugs de sécurité par exemple.

Le support commercial que nous proposons, wolfSSL et moi-même, a je crois renforcé curl : cela me laisse encore plus de temps pour travailler sur curl, et permet à davantage d’entreprises d’utiliser curl sereinement, ce qui en fin de compte le rend meilleur pour tous.

Ces 300 lignes de code fin 1996 sont devenues 172 000 lignes en mars 2021.

L’avenir

Notre travail le plus important est de ne pas « faire chavirer le navire ». Fournir la meilleure et la plus solide bibliothèque de transfert par Internet, sur le plus de plateformes possible.

Mais pour rester attractifs, nous devons vivre avec notre temps, c’est à dire de nous adapter aux nouveaux protocoles et aux nouvelles habitudes au fur et à mesure qu’ils apparaissent. Prendre en charge de nouvelles versions de protocoles, permettre de meilleures manières de faire les choses et, au fur et à mesure, abandonner les mauvaises choses de manière responsable pour ne pas nuire aux personnes qui utilisent le logiciel.

À court terme je pense que nous voulons travailler à nous assurer du fonctionnement d’HTTP/3, faire de Hyper 9 une brique de très bonne qualité et voir ce que devient la brique rustls.

Après 23 ans, nous n’avons toujours pas de vision idéale ni de feuille de route pour nous guider. Nous allons là où Internet et nos utilisatrices nous mènent. Vers l’avant, toujours plus haut !


La feuille de route de curl 😉

23 ans de curl en 23 nombres

Pendant les jours qui ont précédé cet anniversaire, j’ai tweeté 23 « statistiques de curl » en utilisant le hashtag #curl23. Ci-dessous ces vingt-trois nombres et faits.

  • 2 200 lignes de code en mars 1998 sont devenues 170 000 lignes en 2021 alors que curl fête ses 23 ans
  • 14 bibliothèques TLS différentes sont prises en charge par curl alors qu’il fête ses 23 ans
  • 2 348 contributrices et contributeurs ont participé au développement de curl alors qu’il fête ses 23 ans
  • 197 versions de curl ont été publiées alors que curl fête ses 23 ans
  • 6 787 correctifs de bug ont été enregistrés alors que curl fête ses 23 ans
  • 10 000 000 000 d’installations dans le monde font que curl est l’un des jeunes hommes de 23 ans des plus distribués au monde
  • 871 personnes ont contribué au code de curl pour en faire un projet vieux de 23 ans
  • 935 000 000 récupérations pour l’image docker officielle de curl (83 récupérations par seconde) alors que curl fête ses 23 ans
  • 22 marques de voitures, au moins, exécutent curl dans leurs véhicules alors que curl fête ses 23 ans
  • 100 tâches d’intégration continue sont exécutées pour chaque commit et pull request sur le projet curl alors qu’il fête ses 23 ans
  • 15 000 heures de son temps libre ont été passés sur le projet curl par Daniel alors qu’il fête ses 23 ans
  • 2 systèmes d’exploitation mobile les plus utilisés intègrent et utilisent curl dans leur architecture alors que curl fête ses 23 ans
  • 86 systèmes d’exploitation différents font tourner curl alors qu’il fête ses 23 ans
  • 250 000 000 de télévisions utilisent curl alors qu’il fête ses 23 ans
  • 26 protocoles de transport sont pris en charge alors que curl fête ses 23 ans
  • 36 bibliothèques tierces différentes peuvent être compilées afin d’être utilisées par curl alors qu’il fête ses 23 ans
  • 22 architectures différentes de processeurs exécutent curl alors qu’il fête ses 23 ans
  • 4 400 dollars américains ont été payés au total pour la découverte de bugs alors que curl fête ses 23 ans
  • 240 options de ligne de commandes existent lorsque curl fête ses 23 ans
  • 15 600 Go de données sont téléchargées chaque mois depuis le site web de curl alors que curl fête ses 23 ans
  • 60 passerelles vers d’autres langages existent pour permettre aux programmeurs de transférer des données facilement en utilisant n’importe quel langage alors que curl fête ses 23 ans
  • 1 327 449 mots composent l’ensemble des RFC pertinentes qu’il faut lire pour les opérations effectuées par curl alors que curl fête ses 23 ans
  • 1 fondateur et développeur principal est resté dans les parages du projet alors que curl fête ses 23 ans

Crédits images AnnaER




Nextcloud pour l’enseignement ? Ça se tente !

La maîtrise des outils numériques pour l’éducation est un enjeu important pour les personnels, qui confrontés aux « solutions » Microsoft et Google cherchent et commencent à adopter des alternatives crédibles et plus respectueuses.

C’est dans cet esprit que nous vous invitons à découvrir la décision prise par de nombreux établissements scolaires en Allemagne sous l’impulsion de Thomas Mayer : ils ont choisi et promu Nextcloud et son riche « écosystème » de fonctionnalités. Dans l’interview que nous avons traduite et que Nexcloud met évidemment en vitrine, Thomas Mayer évoque rapidement ce qui l’a motivé et les avantages des solutions choisies.
Bien sûr, nous sommes conscients que NextCloud, qui fait ici sa promotion avec un témoignage convaincant, n’est pas sans défauts ni problème. L’interface pour partager les fichiers par exemple, n’est pas des plus intuitives…

Mais sans être LA solution miraculeuse adaptée à toutes les pratiques de l’enseignement assisté par l’outil numérique, Nextcloud…
– est un logiciel libre respectueux des utilisatrices et utilisateurs
– permet l’hébergement et le partage de fichiers distants
– est une plateforme de collaboration
C’est déjà beaucoup ! Si l’on ajoute un grand nombre de fonctionnalités avec plus de 200 applications, vous disposerez de quoi libérer les pratiques pédagogiques de Google drive et d’Office365 sans parler des autres qui se pressent au portillon pour vous convaincre…

Qui plus est, au plan institutionnel, Nextcloud a été adopté officiellement par le ministère de l’Intérieur français  en substitution des solutions de cloud computing10 américaines et il est même (roulement de tambour)… disponible au sein de notre Éducation Nationale ! Si vous ne l’avez pas encore repéré, c’est sur la très enthousiasmante initiative Apps.Education.fr. En principe, les personnels de l’Éducation nationale peuvent s’en emparer — dans toutes les académies ? Mais oui.
Et les enseignantes françaises semblent déjà nombreuses à utiliser Nextcloud : rien qu’au mois d’avril dernier, 1,2 millions de fichiers ont été déposés, nous souffle-t-on. C’est un bon début, non ?

À vous de jouer : testez, évaluez, mettez en pratique, faites remonter vos observations, signalez les problèmes, partagez votre enthousiasme ou vos réticences, et ce qui vous manque aujourd’hui sera peut-être implémenté demain par Nextcloud.
Mais pour commencer, jetons un œil de l’autre côté du Rhin…

Article original sur le portail de Nextcloud : Bavarian school experience with Nextcloud: The benefits for schools are immense!

Traduction Framalang : Fabrice, Goofy

Les écoles de Bavière essaient Nextcloud : les bénéfices sont immenses !

Nous avons interviewé Thomas Mayer, qui est administrateur système d’une école secondaire en Bavière mais aussi un médiateur numérique pour les écoles secondaires bavaroises à l’institut pour la qualité pédagogique et la recherche en didactique de Munich. Thomas nous a fait part de son expérience de l’usage et du déploiement de Nextcloud dans les écoles, les multiples bénéfices qui en découlent. C’est un message important pour les décideurs qui cherchent des solutions collaboratives en milieu scolaire.

Les écoles peuvent en tirer d’immenses avantages ! Les élèves et les collègues bénéficient d’un système complet et moderne qu’ils peuvent également utiliser à la maison. De plus, utiliser Nextcloud leur donne des compétences importantes sur le numérique au quotidien et les technologies informatiques. Les étudiants apprennent beaucoup de choses en utilisant Nextcloud qui seront aussi pertinentes dans leurs études et leur vie professionnelle.

Administrateur système, Thomas a pu déployer un environnement autour de Nextcloud qui est documenté sur le site schulnetzkonzept.de. Outre Nextcloud, le site décrit l’installation et la configuration de Collabora, Samba, Freeradius, Debian comme système d’exploitation de base, Proxmox comme système de virtualisation, etc.
Plusieurs centaines de milliers d’élèves utilisent déjà Nextcloud, y compris par exemple dans des écoles en Saxe, Rhénanie du Nord-Westphalie, Saxe-Anhalt, à Berne en Suisse et bien d’autres. Il est possible d’ajouter des fonctionnalités supplémentaires avec des extensions Nextcloud ou bien des plateformes d’apprentissage comme Moodle ou HPI School Cloud, qui sont open source et conformes au RGPD.

Quand et pourquoi avez-vous décidé d’utiliser Nextcloud ?

Nous avions déjà Nextcloud dans notre école, quand il s’appelait encore Owncloud. Avec l’introduction du système en 2014, nous avons voulu innover en prenant nos distances avec les usages habituels des domaines de Microsoft et les ordinateurs toujours installés en classe pour aller vers un usage plus naturel de fichiers accessibles aussi par mobile ou par les appareils personnels utilisés quotidiennement par les élèves et les professeurs.
Dans le même temps, Nextcould a mûri, et nous aussi avons évolué dans nos usages. Il ne s’agit plus uniquement de manipuler fichiers et répertoires, il existe désormais des outils de communication, d’organisation, de collaboration, et des concepts pour imaginer l’école et les solutions numériques. Nextcloud est devenu un pilier utile et important de notre école.

Quels sont les bénéfices pour les écoles depuis que vous avez lancé l’usage de Nextcloud ?

Les écoles qui reposent sur Nextcloud disposent d’une solution économique, qui ouvre la voie vers l’école numérique à travers de nombreuses fonctions, dans l’esprit de la protection des données et de l’open source ! Malheureusement, ses nombreux avantages n’ont pas encore été identifiés par les décideurs du ministère de l’Éducation. Là-bas, les gens considèrent encore que les bonnes solutions viennent forcément de Microsoft ou assimilés. Afin que les avantages de l’infrastructure Nextcloud deviennent plus visibles pour les écoles, davantage de travail de lobbying devrait être fait en ce sens. De plus, nous avons besoin de concepts qui permettent à CHAQUE école d’utiliser une infrastructure Nextcloud.

« computer class » par woodleywonderworks, licence CC BY 2.0

Quel message souhaitez-vous transmettre aux décideurs qui recherchent des solutions collaboratives pour l’enseignement ?

Une solution étendue à toutes les écoles d’Allemagne serait souhaitable. Si vous ne voulez pas réinventer la roue lorsque vous devez collaborer, et que vous voulez être attentif à la protection des données, vous ne pouvez pas contourner Nextcloud ! Mais ce n’est pas uniquement aux responsables des ministères de l’Éducation de faire des progrès ici : j’espère que les personnes responsables de Nextcloud vont amener leurs produits dans les écoles avec un lobbying approprié et des concepts convaincants !
Les décideurs des ministères de l’Éducation devraient chercher les meilleures solutions sans biais, et ne devraient pas être effrayés par l’open source lors de ces recherches : l’utilisation de logiciels open source est la seule manière concrète d’utiliser du code de qualité !

Quelles ont été vos motivations pour créer le Schulnetzkonzept11 ?
Dans ma vie, j’ai pu bénéficier de nombreux logiciels open source, et de formidables tutoriels gratuits. Avec le concept de réseau éducatif, je voudrais aussi contribuer à quelque chose dans la philosophie de l’open source, et rendre mon expérience disponible. Même si mon site est destiné à des gens calés en informatique, la réponse est relativement importante et toujours positive.

Quels retours avez-vous des élèves et des professeurs ?
Le retour est essentiellement très positif. Les gens sont heureux que nous ayons une communication fiable et un système collaboratif entre les mains, particulièrement en ces temps d’école à la maison.

« computer class » par woodleywonderworks, licence CC BY 2.0

 

Quelles sont les fonctionnalités que vous préférez utiliser et quelles sont celles qui vous manquent encore peut-être ?
Pas facile de répondre. Beaucoup de composants ont une grande valeur et nous sont utiles. Nous utilisons principalement les fonctionnalités autour des fichiers et Collabora. Bien sûr, les applications mobiles jouent aussi un rôle important !
Ce qui serait le plus profitable aux écoles actuellement serait que le backend haute-performance pour les conférences vidéos soit plus facilement disponible. Cela contrecarrait aussi les sempiternelles visios avec Microsoft Teams de nombreux ministres de l’éducation.


  • Un peu envie de voir tout de suite à quoi ça ressemble  ? Allez sur la démo en ligne et vous avez 60 minutes pour explorer en vrai la suite Nextcloud : https://try.nextcloud.com/
  • Une vidéo de 4 minutes de Apps.education.fr vous montre comment créer une ressource partagée avec paramétrage des permissions, la mettre à disposition des élèves et récolter les documents qu’ils et elles envoient.

https://tube-education.beta.education.fr/videos/watch/0eee9246-d073-4471-86ea-a309429e2738




Sauvegardez !

Régulièrement, un accident qui entraine la perte de données importantes nous rappelle l’importance des sauvegardes. L’incendie du centre de données d’OVH à Strasbourg le 10 mars dernier a été particulièrement spectaculaire, car de nombreuses personnes et organisations ont été touchées, mais des incidents de ce genre sont fréquents, quoique moins médiatisés. Un ami vient de m’écrire pour me demander mon numéro de téléphone car il a perdu son ordiphone avec son carnet d’adresses, un étudiant a perdu son ordinateur portable dans le métro, avec tout son mémoire de master dessus, et met une petite annonce dans la station de métro, une graphiste s’aperçoit que son ordinateur, avec tous ses travaux dessus, ne démarre plus un matin, une ville a perdu ses données suite au passage d’un rançongiciel, une utilisatrice de Facebook demande de l’aide car son compte a été piraté et elle ne peut plus accéder à ses photos de famille… Des appels au secours sur les réseaux sociaux comme celui-ci ou celui-là sont fréquents. Dans tous ces cas, le problème était l’absence de sauvegardes. Mais c’est quoi, les sauvegardes, et comment faut-il les faire ?

Le principe est simple : une sauvegarde (backup, en anglais) est une copie des données effectuée sur un autre support. Le but est de pouvoir récupérer ses données en cas de perte. Les causes de perte sont innombrables : vol de l’ordinateur portable ou de l’ordiphone (ces engins, étant mobiles, sont particulièrement exposés à ces risques), effacement par un logiciel malveillant ou par une erreur humaine, panne matérielle. Les causes possibles sont trop nombreuses pour être toutes citées. Retenons plutôt ce principe : les données peuvent devenir inaccessibles du jour au lendemain. Même si vous n’utilisez qu’un ordinateur fixe, parfaitement sécurisé, dans un local à l’abri des incendies (qui peut vraiment prétendre avoir une telle sécurité ?), un composant matériel peut toujours lâcher, vous laissant dans l’angoisse face à vos fichiers irrécupérables. Ne pensons donc pas aux causes de perte, pensons aux précautions à prendre.

(Au passage, saviez-vous que Lawrence d’Arabie avait perdu lors d’un voyage en train un manuscrit qu’il avait dû retaper complètement ? Il n’avait pas de sauvegardes. À sa décharge, avant le numérique, faire des sauvegardes était long et compliqué.)

La règle est simple : il faut sauvegarder ses données. Ou, plus exactement, ce qui n’est pas sauvegardé peut être perdu à tout instant, sans préavis. Si vous êtes absolument certain ou certaine que vos données ne sont pas importantes, vous pouvez vous passer de sauvegardes. À l’inverse, si vous êtes en train d’écrire l’œuvre de votre vie et que dix ans de travail sont sur votre ordinateur, arrêter de lire cet article et aller faire tout de suite une sauvegarde est impératif. Entre les deux, c’est à vous de juger de l’importance de vos données, mais l’expérience semble indiquer que la plupart des utilisateurices sous-estiment le risque de panne, de vol ou de perte. Dans le doute, il vaut donc mieux sauvegarder.

Comment on sauvegarde ?

Là, je vais vous décevoir, je ne vais pas donner de mode d’emploi tout fait. D’abord, cela dépend beaucoup de votre environnement informatique. On n’utilisera pas les mêmes logiciels sur macOS et sur Ubuntu. Je ne connais pas tous les environnements et je ne peux donc pas vous donner des procédures exactes. (Mais, connaissant les lecteurices du Framablog, je suis certain qu’ielles vont ajouter dans les commentaires plein de bons conseils pratiques.) Ensuite, une autre raison pour laquelle je ne donne pas de recettes toutes faites est que la stratégie de sauvegarde va dépendre de votre cas particulier. Par exemple, si vous travaillez sur des données confidentielles (données personnelles, par exemple), certaines stratégies ne pourront pas être appliquées.

Je vais plutôt me focaliser sur quelques principes souvent oubliés. Le premier est d’éviter de mettre tous ses œufs dans le même panier. J’ai déjà vu le cas d’une étudiante ayant bien mis sa thèse en cours de rédaction sur une clé USB mais qui avait la clé et l’ordinateur portable dans le même sac… qui fut volé à l’arrachée dans la rue. Dans ce cas, il n’y a pas de réelle sauvegarde, puisque le même problème (le vol) entraîne la perte du fichier et de la sauvegarde. Même chose si la sauvegarde est accessible depuis la machine principale, par exemple parce qu’elle est sur un serveur de fichiers. Certes, dans ce cas, une panne matérielle de la machine n’entrainerait pas la perte des données sauvegardées sur le serveur, en revanche, une fausse manœuvre (destruction accidentelle des fichiers) ou une malveillance (rançongiciel chiffrant tout ce qu’il trouve, pour le rendre inutilisable) frapperait la sauvegarde aussi bien que l’original. Enfin, si vous travaillez à la maison, et que la sauvegarde est chez vous, rappelez-vous que le même incendie peut détruire les deux. (Il n’est pas nécessaire que tout brûle pour que tous les fichiers soient perdus ; un simple début de fumée peut endommager le matériel au point de rendre les données illisibles.) Rappelez-vous : il y a plusieurs causes de pertes de données, pas juste la panne d’un disque dur, et la stratégie de sauvegarde doit couvrir toutes ces causes. On parle parfois de « règle 3-2-1 »  : les données doivent être sauvegardées en trois exemplaires, sur au moins deux supports physiques différents, et au moins une copie doit être dans un emplacement séparé. Bref, il faut être un peu paranoïaque et imaginer tout ce qui pourrait aller mal.

Donc, pensez à séparer données originelles et sauvegardes. Si vous utilisez un disque dur externe pour vos sauvegardes, débranchez-le physiquement une fois la sauvegarde faite. Si vous utilisez un serveur distant, déconnectez-vous après la copie.

(Si vous êtes programmeureuse, les systèmes de gestion de versions gardent automatiquement les précédentes versions de vos programmes, ce qui protège contre certaines erreurs humaines, comme d’effacer un fichier. Et, si ce système de gestion de versions est décentralisé, comme git, cela permet d’avoir facilement des copies en plusieurs endroits. Toutefois, tous ces endroits sont en général accessibles et donc vulnérables à, par exemple, un logiciel malveillant. Le système de gestion de versions ne dispense pas de sauvegardes.)

Ensuite, ne faites pas d’économies : il est très probable que vos données valent davantage que les quelques dizaines d’euros que coûte un disque dur externe ou une clé USB. Toutefois, il vaut mieux des sauvegardes imparfaites que pas de sauvegardes du tout. Simplement envoyer un fichier par courrier électronique à un autre compte (par exemple celui d’un ami) est simple, rapide et protège mieux que de ne rien faire du tout.

Enfin, faites attention à ce que la sauvegarde elle-même peut faire perdre des données, si vous copiez sur un disque ou une clé où se trouvent déjà des fichiers. C’est une des raisons pour lesquelles il est recommandé d’automatiser les sauvegardes, ce que permettent la plupart des outils. L’automatisation n’a pas pour but que de vous fatiguer moins, elle sert aussi à limiter les risques de fausse manœuvre.

backup chaque jour !
« Five Days’ Backup » par daryl_mitchell, licence CC BY-SA 2.0

À quel rythme ?

La règle est simple : si vous faites des sauvegardes tous les jours, vous pouvez perdre une journée de travail. Si vous en faites toutes les semaines, vous pouvez perdre une semaine de travail. À vous de voir quel rythme vous préférez.

Et le cloud magique qui résout tout ?

Quand on parle de sauvegardes, beaucoup de gens répondent tout de suite « ah, mais pas de problème, moi, tout est sauvegardé dans le cloud ». Mais ce n’est pas aussi simple. D’abord, le cloud n’existe pas : il s’agit d’ordinateurs comme les autres, susceptibles des mêmes pannes, comme l’a tristement démontré l’incendie d’OVH. Il est d’ailleurs intéressant de noter que beaucoup de clients d’OVH supposaient acquis que leurs données étaient recopiées sur plusieurs centres de données, pour éviter la perte, malgré les conditions d’utilisation d’OVH qui disaient clairement que la sauvegarde était de la responsabilité du client. (Mais qui lit les conditions d’utilisation ?)

Parfois, la croyance dans la magie du cloud va jusqu’à dire que leurs centres de données ne peuvent pas brûler, que des copies sont faites, bref que ce qui est stocké dans le nuage ne peut pas être perdu. Mais rappelez-vous qu’il existe d’innombrables causes de perte de données. Combien d’utilisateurs d’un service en ligne ont eu la mauvaise surprise de découvrir un matin qu’ils n’avaient plus accès à leur compte parce qu’un pirate avait deviné leur mot de passe (ou détourné leur courrier ou leurs SMS) ou parce que la société gestionnaire avait délibérément fermé le compte, en raison d’un changement de politique de leur part ou tout simplement parce que le logiciel qui contrôle automatiquement les accès a décidé que votre compte était problématique ? Il n’est pas nécessaire que la société qui contrôle vos fichiers perde les données pour que vous n’y ayez plus accès. Là aussi, c’est une histoire fréquente (témoignage en anglais) et elle l’est encore plus en cas d’hébergement gratuit où vous n’êtes même pas un client.

Ah, et un autre problème avec la sous-traitance (le terme correct pour cloud), la confidentialité. Si vous travaillez avec des données confidentielles (s’il s’agit de données personnelles, vous avez une responsabilité légale, n’oubliez pas), il n’est pas prudent de les envoyer à l’extérieur sans précautions, surtout vers les fournisseurs états-uniens (ou chinois, mais ce cas est plus rare). Une bonne solution est de chiffrer vos fichiers avant l’envoi. Mais comme rien n’est parfait dans le monde cruel où nous vivons, il faut se rappeler que c’est moins pratique et surtout que cela introduit un risque de perte : si vous perdez ou oubliez la clé de chiffrement, vos sauvegardes ne serviront à rien.

Tester

Un adage ingénierie classique est que ce qui n’a pas été testé ne marche jamais, quand on essaie de s’en servir. Appliqué aux sauvegardes, cela veut dire qu’il faut tester que la sauvegarde fonctionne, en essayant une restauration (le contraire d’une sauvegarde : mettre les fichiers sur l’ordinateur, à partir de la copie).

Une bonne discipline, par exemple, est de profiter de l’achat d’une nouvelle machine pour essayer de restaurer les fichiers à partir de la copie. Vous serez peut-être surpris·e de constater à ce moment qu’il manque des fichiers importants, qui avaient été négligés lors de la sauvegarde, ou bien que la sauvegarde la plus récente n’est… pas très récente. Ou bien tout simplement que la clé USB où vous aviez fait la sauvegarde a disparu, ou bien ne fonctionne plus.

Conclusion

Il faut sauvegarder. Je l’ai déjà dit, non ? Pour vous motiver, posez-vous les questions suivantes :

  • Si, un matin, mon ordinateur fait entendre un bruit de casserole et ne démarre pas, saurais-je facilement restaurer des données sauvegardées ?
  • Si toutes mes données sont chez un hébergeur extérieur et que je perds l’accès à mon compte, comment restaurerais-je mes données ?
  • Si je travaille sur un ordinateur portable que je trimballe souvent, et qu’il est volé ou perdu, où et comment restaurer les données ?

Si vous préférez les messages en vidéo, j’ai bien aimé cette vidéo qui, en dépit de son nom, n’est pas faite que pour les geeks.

 

 

 




« Avance rapide » : le défi de Nathalie

Voici la republication de cet article que Nathalie a publié sur son blog pour tirer le bilan de son défi : « 30 articles en 30 jours pour un Web plus écolo »

Un Web « low-tech », « sobre », « frugal»… ce n’est pas une mode, mais un mouvement de fond qui va au-delà de la prise de conscience et commence à s’installer dans les pratiques. C’est pourquoi sans doute Nathalie a choisi d’associer recherche d’informations et expérimentation dans sa démarche d’éco-conception, c’est après tout la meilleure façon d’apprendre et progresser. Les commentaires comme toujours sont ouverts et modérés.

Bilan du défi « avance rapide »

par Nathalie

Nous sommes début avril 2021, voilà maintenant un mois que je m’intéresse aux impacts du numérique sur notre planète. Un mois que je lis tout ce que je peux trouver sur ce sujet et plus particulièrement sur l’éco-conception du numérique. Un mois que j’apprends intensivement sur ce sujet passionnant. Un mois que j’écris sur chaque découverte ou inspiration. Ce fut un mois intense et passionnant. Merci à celles et ceux qui ont pris le temps de me lire et d’écrire un commentaire, que ce soit pour m’encourager ou confronter leurs opinions. Certains sont plus en avance que moi sur le sujet et m’ont apporté leur contribution pour enrichir ce blog.

Je vais continuer à apprendre et à écrire ici au fil de mon chemin. De manière moins soutenue et peut-être un contenu un peu différent parfois. J’aimerais mettre en application ce que j’ai appris. Peut-être en commençant par l’analyse de sites web, décortiquer ensemble les choix de design et les confronter à mes récentes connaissances en éco-conception. Tout n’est pas encore décidé, d’ailleurs si vous avez des idées ou des choses que vous aimeriez voir ici, n’hésitez pas à m’en faire part en commentaires.

Bilan du défi “avance rapide”

Voici un bilan de ces 30 jours d’apprentissage intensif, défi que j’avais baptisé “avance rapide” (ici l’article sur le lancement du défi).

Articles publiés

J’ai lu des dizaines et des dizaines d’articles sur le sujet, participé à deux conférences et lu également deux livres pour lesquels j’ai mis le lien des chroniques un peu plus bas. J’ai découvert de nombreuses statistiques dont certaines qui m’ont beaucoup choquée et que j’ai regroupées ici. J’ai publié 29 articles (en excluant les articles sur le lancement et le bilan du défi que vous êtes en train de lire), un mélange entre apprentissage théorique, bonnes pratiques concrètes et inspirations. Je vous remets les liens de chaque article ci-dessous, classés par catégorie.

7 articles “Comprendre”
15 articles “Agir”
5 articles “Inspirations”
2 articles “Lectures”

Actions mises en place sur le blog

Au fil de mon apprentissage, j’ai également appliqué concrètement certaines actions sur le blog:

– non utilisation du blanc dans le design du blog (le blanc est la couleur la plus consommatrice en terme d’énergie)

– application de la méthode Marie Kondo, par exemple en utilisant des images uniquement lorsqu’elles servent à la compréhension

– optimisation des images avec ImageOptim (40% de réduction de poids en moyenne)

– mise en place d’un CDN pour réduire la distance à parcourir pour chaque requête (une bonne pratique dont je n’ai pas encore parlé mais j’y dédierai un article prochainement)

– j’essaie de rédiger des titres clairs pour éviter les mauvaises surprises et des chargements de page inutiles

Pour le moment, le score obtenu pour la page d’accueil du blog (www.webdesignfortheplanet.com) est plutôt satisfaisant. J’espère le maintenir dans le futur 🙂

En conclusion

J’espère que vous avez appris aussi et que certains articles vous ont interpellés, fait prendre conscience de l’impact de nos choix UX ou UI notamment dans la construction de nos sites web et, pourquoi pas, carrément donné envie de changer les choses dans nos métiers du numérique. N’hésitez pas à partager vos ressentis avec moi sur tout ça, ça m’intéresse de vous lire  🙂

J’ai encore beaucoup à apprendre sur ce sujet, je vais continuer à creuser, lire, analyser et expérimenter à mon rythme. Si vous avez des recommandations ou des suggestions de sujets que vous aimeriez que je creuse, nhésitez pas à men faire part en commentaires de cet article.




Le point médian m’a tué⋅e : Framasoft met la clef sous la porte

La rumeur courait depuis quelque temps et c’est maintenant confirmé : l’association d’éducation populaire Framasoft dépose le bilan. En cause ? L’effondrement catastrophique du montant des dons au cours des derniers mois, effondrement principalement imputable à un curieux symbole typographique.

Cela fait de nombreuses années maintenant que l’on peut trouver des formes de ce que l’on appelle « l’écriture inclusive » dans les communications de Framasoft. La forme la plus visible de cette écriture est le fameux « point médian » qui permet de détailler les genres lorsqu’un mot inclut des personnes indéterminées (et au genre, par conséquent, indéterminé également). Sauf que voilà, ce point médian est loin de faire l’unanimité. Nous avons rencontré Jean-Mi, président des Promoteurs de l’Écriture Non-Inclusive Systématique (PENIS), en croisade contre le point médian depuis 2017.

« Je crois qu’on ait avant tous des défenseur de la belle langue Francaise » nous écrit Jean-Mi dans un premier mail de contact. « Le point médian agresse l’œil, on a constaté une explosion des frais d’ophtalmologie chez les lecteurs du Framablog ces dernières années, il fallait réagir. » Un problème de santé publique ? Jean-Mi nous répond sans détour :

À 200%. Les anecdotes se comptent par dizaines. Tu vas lire pépouze un article sur le développement de PeerTube et PAF ! Une saloperie de point médian qui surgit plus furtivement qu’un Rattata dans les hautes herbes. La dernière fois, ça m’a fait un haut-le-cœur, j’en ai dégueulé tout mon dîner sur le clavier, 30€ de dégâts. Mon pote Dédé, l’autre jour, sur l’article sur Mobilizon, il était tout prêt à changer le monde, tout ça, et PAF ! Il retrouve de la propagande de connasse de féministe sur un bon vieux blog de tech où on devrait pourtant pouvoir faire de l’entre-couilles en paix. Deux mois de thérapie pour s’en remettre, qu’il lui a fallu, au Dédé. Ils y pensent, à ça, les framaguignols qui pondent du point médian au kilomètre sans respect pour nos petits cœurs fragiles ?

@framasoft j'aurais bien fait un don, mais franchement le point médian, c'est non, je ferai un don quand vous écriverez correctement

Jean-Mi et Dédé, chevaliers de la liberté et des belles lettres, n’ont jamais caché leur dégoût pour cet odieux symbole typographique et commentent systématiquement les articles incriminés sur le Framablog. Pouhiou, chargé de communication de Framasoft contacté par nos soins, soupire :

Tu bosses comme un fou pour faire des articles bien écrits, avec un ton agréable, tu mets du soin, du cœur à l’ouvrage, et là tu vois le premier commentaire : une remarque insultante sur le point médian. T’as fait 15 000 caractères aux petits oignons et on vient te casser les gonades parce qu’il y en a 3 qui plaisent pas. C’est fatigant.

Les PENIS restent inflexibles :

Si ça le fatigue, qu’il arrête ! Nous aussi ça nous fatigue, leurs conneries, sauf que nous, c’est nous qu’on a raison ! La langue française, y’a des fucking règles, tu les respectes ! #JeSuisAcademieFrancaise

Sauf que cette fois, l’intransigeance a pris un autre détour : le boycott de dons. Jean-Mi nous raconte, ému, la genèse de ce mode d’action :

C’est Dédé qu’a eu l’idée. Un jour je l’ai vu tweeter :

@framasoft j'aurais bien fait un don, mais le point médian, c'est non, je ferai un don quand vous écriverez correctement

J’me suis dit : putain mais c’est du génie !

Depuis, à chaque article point-médiané, Jean-Mi et Dédé soulignent que Framasoft a perdu un donateur :

Bon okay, on n’avait jamais fait de don avant, mais n’empêche qu’on aurait très bien pu en faire un dans un futur hypothermique ! EH BAH NON. Tout cet argent perdu par Framasoft pour une bête lubie féminazie, c’est triste. Mais c’est bien fait pour eux.

L’association, longtemps restée sourde à ces avertissements, paie aujourd’hui lourdement l’addition : le boycott massif du point médian a mené à un écroulement des dons, et ceux-ci ne suffisent plus à rémunérer les salarié⋅e⋅s. Triste retour à la réalité : Framasoft met aujourd’hui la clef sous la porte. « Ça leur pendait au nez » commente Jean-Mi « et à toi aussi, sale petite merde journalope qui vient d’écrire salarié⋅e⋅s, tu crois que je t’ai pas vu ?! »

Les PENIS se dressent aussi pour la belle langue française à l’Assemblée Nationale (rigolez pas, c’est avec votre pognon)

C’est un triste jour pour l’association qui s’était rendue célèbre par son annuaire de logiciels, ses livres libres, ses services autour du projet Dégooglisons Internet et, plus récemment, par l’initiative Contributopia visant à outiller la société de la contribution. Pierre-Yves Gosset, salarié historique de Framasoft, commente : « ça me fait vraiment mal qu’un truc aussi beau finisse comme ça à cause d’une bande de déglingués de la typo. Ça traite tout le monde de fragile et ça pète une bielle pour trois pixels. » Amer, il arrive malgré tout à en rire : « Enfin au moins, maintenant on sait comment flinguer Google : suffit de leur faire adopter le point médian. »

L’aventure s’arrête donc ici pour l’asso qui avait pour ambition de dégoogliser Internet mais n’aura pas su dépointmédianiser son propre blog. Le jeu en aura-t-il valu la chandelle ? C’est Luc, ancien admin-sys de Framasoft croisé au comptoir de Pôle Emploi, qui conclut : « y’a des poings médians dans la gueule qui se perdent. »




Marie-Cécile Godwin :
« les usages prévalent sur tout »

Un internaute nous dit :
J’ai été particulièrement intéressé par les propos de Marie Cécile Godwin sur ses interactions avec les utilisateurs de PeerTube et les vidéastes qui utilisent déjà YouTube, ainsi que sur ses retours sur la communauté du libre… Dis, Framablog, tu nous ferais un entretien avec elle pour en parler plus longuement ?

CHICHE !


Salut Marie-Cécile.

On t’a vue dans le clip sur les coulisses de PeerTube, mais peux-tu te présenter tout de même ?

Mais avec grand plaisir ! Marie-Cécile, 39 ans, amatrice de Rice Krispies et de tricot, designer UX quand il faut payer les factures. Diplômée de communication visuelle en 2004 (oui, ça date !), j’ai peu à peu navigué vers la stratégie de conception et l’étude des usages, à l’époque où on ne parlait pas encore d’UX. Aujourd’hui, je passe la plupart de mon temps à coller des post-it partout, écouter des personnes me parler de leurs usages numériques et faire de mon mieux pour déconstruire les clichés sur le numérique des étudiant·es durant les cours que je donne. D’ailleurs, je leur propose régulièrement de prendre les logiciels libres comme sujets d’étude !

Détournement de la photo officielle de Marie-Cécile

 

Qu’est-ce que tu savais du logiciel libre et de la culture geek avant de nous rencontrer ?

Pas grand chose. J’utilisais certains d’entre eux, mais je n’avais pas encore fourré le nez dans la culture libre et ses valeurs. En bonne designer graphique, je capitulais devant le poids des grandes firmes et de leurs logiciels propriétaires pour respecter la chaîne de production tout autour de moi. Puis, avec l’arrivée des plateformes sociales et la découverte des enjeux liés, entre autres, à l’Anthropocène, j’ai enfin pu déconstruire mes préconceptions au sujet des libertés individuelles, et de ce que nous pouvons faire pour nous prémunir de leur destruction. Pour ce qui est des logiciels propriétaires, j’ai récemment décidé de passer à la suite Affinity Serif  qui n’est pas libre, mais qui propose leurs logiciels à prix fixe, une rareté dans l’industrie où il ne reste que des programmes « cloud » à abonnement.

Est-ce que tu avais une vision réaliste des vidéastes qui publient sur le web, ou est-ce que tu as eu des surprises en bossant sur PeerTube ?

Très peu consommatrice de contenus vidéos, je n’ai pas bien suivi le phénomène de l’explosion des vidéastes. Certainement dû à mon grand âge, en tout cas sur l’échelle du Web 😀

Du coup, pas tellement de surprises en découvrant l’univers gravitant autour de Peertube, mais de belles rencontres, notamment au fil des entretiens menés pour découvrir les usages de chacune et chacun.

 

Tu dis que tu es designer, en quoi ça consiste ?

Ah ça, c’est LA question piège à chaque fois qu’on me demande ce que je fais. Il y a des clichés très persistants sur le design, qui est vu comme la discipline de l’apparence et du beau. Si je devais revenir aux fondements de ma pratique, je suis la personne chargée de (re)cadrer le besoin initial, d’analyser le contexte et le terrain, puis de prendre toute la complexité recueillie, l’ordonner et lui donner LA forme qui conviendra.

Que ce soit du travail de graphisme (UI) pour adapter une identité graphique à un wireframe, ou du travail de conception dudit wireframe, ou encore la création d’un « service blueprint » (un plan technique d’un service ou d’une organisation destiné à faciliter l’identification des problèmes ou des frictions) d’après des données de terrain ou d’entretiens, tout part des mêmes méthodes : cadrer, analyser, ordonner puis choisir la forme de restitution qui conviendra.

Ce processus est à la base de tout, c’est ce qui s’appelle la « pensée design », et qui fait les beaux jours des cabinets de consulting sous le très à la mode « design thinking« . Mais qu’on appelle ça « design thinking« , « UX design » ou un quelconque néologisme bullshit, cela m’importe peu. Je me dis souvent « UX designer » ou « UX researcher » parce que ce sont des termes qui sont maintenant entrés dans le langage commun et qui ont un vague sens pour les personnes à qui je le dis. Mais au final, je suis bien « conceptrice » un peu comme je pourrais être « ingénieure ». C’est une façon de penser, réfléchir et faire les choses, puis de leur donner la juste apparence en fonction de tous ces paramètres. J’assiste la conception de systèmes et de services.

Est-ce que tu as changé de façon de « faire du design » au cours de ta vie professionnelle ?

Ouh là là oui ! À l’époque où j’ai fait mes études (le tout début du siècle !), le monde était radicalement différent et les inégalités et oppressions systémiques amplifiées par le numérique étaient beaucoup moins saillantes qu’aujourd’hui. Mon propre privilège m’était également invisible.

je me suis frottée au capitalisme de surveillance

Je me contentais de faire ce que l’on m’avait appris : obéir aux exigences d’un⋅e client·e et faire de mon mieux pour contribuer à atteindre ses objectifs, la plupart du temps ceux-ci étant résumables à « vendre plus de trucs ». Depuis, je me suis frottée au capitalisme de surveillance, à la surconsommation, au dérèglement climatique, aux oppressions systémiques et j’ai découvert que le design et les designers étaient loin d’être innocentes dans tout ça. Il m’a fallu du temps, mais aujourd’hui j’essaie de faire de mon mieux pour parler de ces aspects et les appliquer au quotidien dans ma manière de travailler et les personnes avec qui je travaille.

Pourquoi as-tu accepté de contribuer à Framasoft (On n’en revient toujours pas qu’une pointure comme toi accepte de nous aider) ?

Une « pointure » ? mais non enfin 😀

Hé bien justement, pour toutes les raisons susmentionnées. Il n’est pas possible de lutter individuellement contre des choses aussi complexes et insidieuses que le dérèglement climatique et le capitalisme de surveillance. Par contre, on peut faire plein de petits choix conscients qui feront avancer petit à petit les choses. Collaborer avec Framasoft, que ce soit via des prestations rémunérées ou du bénévolat, me permet d’avoir la sensation de faire une petite part du travail à accomplir pour que le monde soit un poil moins pourri chaque jour.

Aussi, parce que Framasoft est blindée de personnes formidables que j’aime beaucoup côtoyer (toujours à 2 mètres de distance et avec un masque :P) et que j’apprends énormément à leurs côtés.

Quand tu as commencé à regarder ce qui n’allait pas en termes d’UX / UI chez Framasoft, qu’est-ce qui t’a choquée le plus ?

Le mot « choquée » est un peu fort. 😛

Ce qui me donne le plus de fil à retordre, c’est tout le travail de « change management« , pour employer un terme très startup nation. Le modèle mental des designers est radicalement différent, dans la manière d’aborder la conception d’un outil, par exemple d’un logiciel. Nous n’allons pas nous appuyer sur nos propres perceptions pour prendre des décisions, mais nous allons d’abord étudier le contexte, aller voir des personnes qui ont le même besoin, et essayer de trouver un modèle de conception qui serve le plus de monde possible.

Ce travail, s’il n’est pas fait en amont, pose deux problèmes : l’outil une fois conçu ne va pas « parler » aux personnes qu’il est censé aider. Par exemple, le vocabulaire verbal ou visuel de l’interface induira les personnes qui l’utilisent en erreur, soit parce qu’il est trop technique ou qu’il n’emploie pas les bonnes métaphores visuelles. Le deuxième problème, plus structurel, se traduit dans la manière dont le projet est mené et conçu. Si vous avez passé votre vie à concevoir des programmes, qu’ils vous conviennent bien, et qu’en plus personne n’a jamais vraiment râlé, vous n’allez pas avoir besoin de vous remettre en question. Comme je le raconte souvent quand je parle de conception / design dans le libre, en tant qu’UX designer j’arrive avec un constat inconfortable : « ton logiciel ne prend pas le problème dans le bon sens… ». Si on s’arrête là, c’est sûr que ça donne l’impression qu’on va tout péter à coups de masse et que tout le boulot fait jusqu’à présent est à jeter aux oubliettes. La suite du constat est plus cool : « …mais c’est pas grave, on va trouver ensemble des manières de le faire évoluer pour qu’il parle à davantage de gens ».

Comment s’est déroulé ton travail sur PeerTube ?

À la différence de Mobilizon, où le projet commençait à peine et où la team Frama m’a intégrée tout de suite, PeerTube a déjà tout un existant avec lequel j’ai dû me familiariser : l’histoire du projet, de son concepteur, les évolutions, les contributions, les dynamiques autour du projet. J’étais dans mes petits souliers au début ! Ce n’est pas facile de débarquer comme une fleur avec un œil de designer, souvent notre travail est perçu comme l’arrivée d’un chien dans un jeu de quilles, un peu à la « c’est moche, on refait tout ». Il est important de prendre en compte l’histoire du projet et tout le bagage émotionnel qui va avec. On a commencé doucement avec une première phase où j’ai fait l’éponge en posant des questions à l’équipe et à Chocobozzz, puis où j’ai mené des entretiens pour nous faire une meilleure idée de ce que les utilisatrices et utilisateurs de PeerTube en faisaient et ce dont elles et ils avaient besoin. J’ai réalisé en tout une quinzaine d’entretiens, desquels sont sortis non seulement plein d’idées d’améliorations à très court terme, mais aussi de quoi nourrir des orientations stratégiques sur le temps long.

Ce qui m’intéresse beaucoup dans ce projet, c’est d’accompagner Chocobozzz dans les futures évolutions du logiciel en lui apportant la facette « UX ». Outre des petites choses simples comme l’aider à justifier des décisions ergonomiques ou graphiques grâce aux heuristiques de design graphique ou d’utilisabilité, on essaie de bien cadrer les problèmes identifiés, de se faire une bonne idée des usages qui vont autour et de prendre les décisions qui y correspondent.

La grande satisfaction jusqu’à présent, c’est de sentir que je suis utile et que mon travail ne génère pas de défiance dans l’équipe. Chocobozzz m’a dit que ça lui faisait du bien de bosser avec une designer, lui qui a été bien seul sur l’immense majorité de son projet et qui a dû faire des choix ergonomiques sans réellement savoir si c’était la bonne voie ou pas.

 

les libristes, c’est comme un bol de M&M’s

 

Qu’est-ce que tu trouves de génial et qu’est-ce que tu trouves de détestable dans la communauté du Libre ?

Ce qui est absolument génial, ce sont ces valeurs partagées et cette ouverture vers des alternatives. La radicalité politique de la communauté est très appréciable. Pour s’intéresser au libre, il faut avoir fait un chemin individuel qui implique forcément de la réflexion, une prise de recul sur l’existant, et l’audace de s’orienter vers quelque chose de différent de la norme.

Pour ce qui est « détestable », je ne sais pas si le mot est juste, mais j’ai eu à me frotter à un cactus bien piquant, celui qui découle du modèle mental dominant dans le libre : celui du développeur / ingénieur (homme cis hétérosexuel, éduqué, très souvent valide et entouré de gens qui lui ressemblent bien trop (ce ne sont que des faits démographiques, pas un jugement)) dans son armure de certitudes. Concrètement, je me suis fait empailler un nombre incalculable de fois, notamment sur Mastodon que j’ai laissé tomber pour cette raison, parce que j’avais eu l’audace d’utiliser une solution non-libre tout en osant travailler avec Frama. Il existe deux problèmes à mon sens : le premier relève de l’allégeance au libre qui est souvent interprétée en décalage avec la réalité des choses (l’existence d’intercompatibilité entre des solutions ou pas, le monde du travail, les habitudes, les possibilités financières, physiques, cognitives de chacun·e). Résultat, je suis une « vendue » si un jour j’ai osé publier un lien vers un Google Doc. Sauf que la petite asso sans moyen à qui je file un coup de main n’a pas vraiment eu d’autre choix que de se rabattre sur cette solution, pour des raisons qui sont les siennes et que je ne dois pas me permettre de critiquer (les usages prévalent sur tout, c’est la réalité, même si on aimerait parfois que ce soit différent).

Le deuxième problème est fait d’un mélange de patriarcat bien ancré dans l’informatique mixé au manque quasi-total d’occasions de se remettre en question dont souffrent nombre de personnages dans le libre. Je ne suis pas en train de critiquer des individus, ce serait trop simple et cela effacerait l’aspect systémique du problème. En pratique, cela se traduit en discussions unilatérales où mon interlocuteur est en incapacité d’imaginer que je puisse avoir une autre perception et une autre expérience de la vie que lui, encore moins de reconnaître ses torts. Une fois entrevue la possibilité que je puisse lui mettre le nez dans son étron, il va redoubler d’effort car mieux vaut se défendre que d’avouer ses erreurs. Il y a aussi cette insupportable certitude qu’on est dans la vérité et que toute personne qui fait autrement a foncièrement tort. Une des conséquences c’est l’infini tsunami de conseils non sollicités que moi et mes consœurs nous prenons dans la courge quand on ose émettre la moindre critique de quoi que ce soit sur Internet. Je n’ai pas l’énergie de gérer les egos de ceux qui viennent m’apprendre la vie, alors qu’en faisant l’effort de lire ma bio ou de consacrer quelques secondes à se renseigner sur ce que je publie, ils se seraient vite rendu compte que leur intervention était au mieux inutile, au pire franchement toxique.

Du coup, les libristes, c’est comme un bol de M&M’s. On te dit qu’au milieu du bol, y’en a 2 ou 3 qui sont toxiques du genre mortel, mais qu’on ne sait pas lesquels. Je souhaite bon courage à la personne qui osera en manger. Cela peut expliquer que je perde patience et qu’il m’arrive de bloquer allègrement, ou d’envoyer de bons vieux mèmes féministes pour clore une discussion non sollicitée.

 

Extrait d’une vidéo. On est encore tombé sur une hyperactive.

 

Es-tu une louve solitaire du design et de l’expérience utilisateur dans le monde du libre, ou bien y a-t-il une communauté de UI/UX designers qui ont une affinité avec le libre ?

De plus en plus de consœurs et confrères s’intéressent au libre. Maiwann a commencé bien avant moi ! Je suis loin d’avoir le monopole. Il y a encore un fossé qui nous empêche, nous designers, de vraiment contribuer au libre. On ne s’y sent pas forcément à notre place ou bien accueilli·es. Il faut déjà passer la barrière des outils et méthodes qu’utilisent les libristes pour travailler (GitHub, forums, etc.) et ensuite faire comprendre que nous ne sommes pas juste des peinteresses en bâtiment qui vont pouvoir donner un petit coup de propre à notre vieux Bootstrap UI.

J’essaie de motiver des personnes autour de moi dans l’industrie du design et de l’UX pour contribuer, j’espère que ma présence dans ce milieu va rassurer les gens du libre (non, les designers ne viennent pas tout casser !) et les designers (oui, les gens du libre peuvent écouter !).

Question annexe : je participe à un super projet libre (site Web ou applications pour le Web/ordiphone/ordinateur), mais je suis nul en UX/UI. Vers qui me tourner ? De manière générale, comment aborder cette problématique quand on n’est pas soi-même designer ?

La toute première étape pour aborder la problématique de la conception et de l’expérience d’usage, c’est déjà de se rendre compte qu’on a besoin d’aide 🙂 Ensuite, je dirais qu’intégrer un·e designer le plus tôt possible dans le projet est très important. Comme tu l’as sûrement compris, plus on peut absorber de contraintes, mieux on peut aider.

Il existe plein de ressources pour s’approprier les règles de base afin de créer une interface accessible, lisible, utilisable et logique. Ce n’est pas si dur que ça, promis ! Le tout c’est d’arriver avant la fin du projet où il ne reste plus qu’à « mettre un coup de peinture au Bootstrap« .

En travaillant avec des vidéastes utilisant des plateformes privatrices, as-tu vu des problèmes impossibles à résoudre pour eux (pour le moment) avec les logiciels libres et/ou PeerTube ? (Je pose cette question parce que j’ai récemment lu un article de Robin Wong expliquant qu’il devait publier deux vidéos sur YouTube chaque semaine sous peine de disparaître des écrans, la faute à un algorithme secret et féroce… et j’ai trouvé ça particulièrement triste et aimerais bien qu’il existe une solution libre pour éviter cela)

Il existe nombre de problématiques d’usage pour lesquelles le logiciel libre ne pourra pas grand chose. Avec Mobilizon, par exemple, on s’est frotté·es au phénomène du « no-show« , ou de ces personnes qui prennent une place pour un événement, pour finalement ne pas y venir. C’est un grand classique pour toute personne qui organise des événements, et ça peut être très difficile de gérer la logistique derrière. Cela implique des questionnements sur le nombre de bouteilles de jus de fruit à prévoir jusqu’à la taille même de la salle à louer. C’est un souci humain, et on aura beau se creuser la tête et ajouter tout un tas de petite fonctionnalités pour inciter au maximum ces personnes à céder leur place réservée si elles ne viennent pas, l’informatique a ses limites.

Pour la rémunération, ce ne sont pas les logiciels libres qui vont faire office de solution

 

Pour ce qui est de la vidéo, il est clair que deux forces jouent en la défaveur des vidéastes : le modèle financier imposé par les plateformes, et les algorithmes qui changent en permanence la donne sur ce qui sera promu et pourquoi. Pour la rémunération, ce ne sont pas les logiciels libres qui vont faire office de solution. C’est à nous de nous poser la question, de manière politique, en décortiquant qui rémunère qui, en fonction de quoi, et en décidant collectivement de nouvelles manières de faire en s’affranchissant des plateformes. Pour le coup des algorithmes de sélection de contenu, ils existent pour un seul objectif : forcer les créatrices et créateurs de contenu à payer pour être vues. Le dommage collatéral terrible, c’est qu’ils les forcent aussi à standardiser ce qu’elles produisent, depuis la tronche de l’image de prévisualisation jusqu’au rythme de publication. Ce diktat est très inconfortable pour elles, et je les comprends. Mais de là à abandonner une audience en apparence captive et une plateforme qui te rémunère sans que tes fans n’aient à débourser un seul euro (ou en tout cas c’est ce dont on a l’impression), il y a un fossé à survoler avant d’y arriver.

La transition vers de nouveaux modèles de publication et de rémunération est loin d’être facile, ni rapide. C’est à nous de promouvoir des modèles alternatifs et toute la pédagogie qui va autour, en ne perdant pas de vue que les logiciels en eux-mêmes ne sont pas une fin.

Quel(s) conseil(s) donnerais-tu aux créateurs de logiciels libres pour obtenir de bons retours qui leur permettent d’améliorer leurs logiciels et de les rendre plus accessibles (pas seulement en termes d’accessibilité comme on l’entend sur le Web, mais tout simplement pour qu’ils soit utiles au plus grand nombre).

Il y a deux niveaux sur lesquels agir :

  • la stratégie de conception du logiciel,
  • son apparence, son utilisabilité et son accessibilité.

Pour le deuxième niveau (le plus simple pour commencer), il existe de nombreuses ressources pour s’auto-former en bases du graphisme : la théorie des couleurs, les contrastes, les principes du design visuel, les heuristiques d’utilisabilité d’interface (en anglais), parmi tant d’autres. Rien qu’avec ces basiques, on peut éviter énormément d’erreurs d’UI (apparence de l’interface) ou d’UX (comment l’interface fonctionne et s’enchaîne avec le reste d’un flow).

Il est également possible de faire un peu de « guérilla UX » à moindre frais. La méthode la plus simple consiste à interroger des utilisatrices ou utilisateurs de votre logiciel, voire carrément d’organiser une petite session de partage d’écran, de leur demander d’accomplir telle ou telle action, et de les observer en silence : frissons garantis ! Vous en apprendrez énormément sur la manière dont les personnes utilisent votre logiciel, sur les objectifs qu’elles cherchent à remplir avec, et sur les modèles mentaux qu’elles utilisent et que vous n’aviez pas imaginés.

En ce qui concerne la stratégie de conception, c’est un peu plus compliqué. La remettre en question demande une certaine maturité sur le projet, et l’acceptation qu’il est possible qu’on se soit trompé à la base… Jamais agréable. Ensuite, c’est un long travail à faire que de revenir aux origines de l’usage de votre logiciel. Étudier le besoin original, explorer ce besoin pour voir quel périmètre d’usage choisir, pour quels objectifs, pour promouvoir quelles valeurs, puis comment structurer la conception pour appliquer ces valeurs à l’ensemble des décisions prises. C’est ce qu’on appelle l’assistance à maîtrise d’usage, et c’est ce à quoi je passe la plupart de mon temps. Là, c’est un peu plus difficile de s’auto-former. J’essaie, dans la mesure du temps que je peux dégager, de donner des coups de main à droite à gauche pour débloquer ce genre de situations. C’est ce qu’on avait fait avec Marien sur Lessy, par exemple.

Des recommandations de lectures ou de visionnages pour en découvrir plus sur ton métier et sur les bonnes pratiques de UI/UX en général ?

Le site de NNGroup est une mine d’or pour les anglophones. Je m’y réfère beaucoup. Difficile également de passer à côté de l’ouvrage très riche de Carine Lallemand, « Méthodes de design UX ». Le livre d’Andrew Travers, « Interviewing for Research », propose 60 pages hyper pragmatiques sur comment conduire des entretiens de recherche UX (en anglais) .Stef Walter publie une veille très riche sur Twitter et sur son blog. Akiani publie une veille axée « UX research » très intéressante. Enfin, je vous conseille la veille accessibilité d’Access42, car cet aspect est bien trop souvent oublié de pas mal de projets, alors qu’il devrait en être les fondations.

Voici aussi une petite sélection de conférences à regarder :