Traducthon, tradaction, tradusprint… Pour un Web ouvert !

Geektionnerd - Simon Gee Giraudot - CC by-saDepuis plus de deux ans, plus précisément depuis un samedi de mai 2009 à l’occasion d’une Ubuntu party, je participe aux traductions collaboratives dans la vraie vie initiées par Framalang, le groupe de traducteurs gonzos du Framaland. Et je ne suis pas le seul à y avoir pris goût.

Nous avons récidivé à Bordeaux pour traduire Un monde sans Copyright, chez Mozilla Europe à Paris pour le manuel Thunderbird et en juillet dernier à Strasbourg à l’occasion des RMLL, pour vous proposer aujourd’hui Pour un Web ouvert.

J’ai traduit, aidé à traduire, relu et révisé des dizaines de textes de toutes sortes. Participer aux traductions d’articles avec Framalang depuis un certain temps déjà n’a fait que multiplier les occasions de pratiquer le petit jeu de la traduction. Mais participer à un traducthon est une tout autre expérience dont voici certaines caractéristiques.

Des traducteurs en chair, en os et en vie

Antoine Turmel - CC by-saCommençons par le plus flagrant : un traducthon c’est une rencontre physique de personnes qui ne se connaissaient pas forcément, qui n’étaient que des pseudos en ligne ou bien que l’on ne retrouve qu’à quelques occasions. C’est donc d’abord un temps convivial, où l’on échange des propos par-dessus le travail en cours, des plaisanteries de mauvais goût qui déclenchent le fou-rire, des considérations trollesques qui partent en vrille, mais aussi des projets, des questions, des réponses, des contacts, de la bière l’eau ferrugémineuse, des pizzas et des petits plats du restau du quartier. En somme c’est une petite bande de gens qui deviennent copains (au moins), une bande dont la géométrie est variable d’une session à l’autre suivant la disponibilité de chacun ou son libre désir de participer.

Le milieu des traducteurs libristes n’est pas si vaste, mais il est relativement compartimenté, généralement en fonction des tâches et projets. Un traducthon représente la possibilité de mettre un peu de liant dans cet émiettement des activités. Je suis assez content par exemple de voir se rencontrer sur une traduction partagée des copains de frenchmozilla et ceux de framalang. Ah mais j’entends aKa dans l’oreillette… ah oui, d’accord il faut employer au moins une fois le mot « synergie ». C’est fait.

Inconvénient ? C’est sûr, on découvre les vrais gens : Julien mange toute la tablette de Milka, Adrien est trop bavard, Goofy est un vieux et Simon ne devrait pas se laisser pousser la barbe.

Un défi, un enjeu, un grand jeu

La concentration dans le temps (un week-end, trois ou quatre jours dans le meilleur des cas…), la concentration dans un lieu de travail (une salle de cours de faculté plus ou moins équipée, un hall de la Cité des sciences, les locaux de Mozilla Europe…) sont bien sûr associées au défi que l’on se donne de terminer au moins un premier jet tout simplement parce qu’après le traducthon chacun reprend sa vie quotidienne et d’autres activités, il faut donc terminer « à chaud ». L’ensemble pourrait créer un stress particulier, mais le plus souvent il ne s’agit que d’une tension positive parce que nous sommes un groupe. Chacun sait que tout près un autre participant est animé lui aussi du désir d’atteindre le but commun. La collaboration crée en réalité l’émulation, chacun met un point d’honneur à faire au moins aussi bien et autant que ses voisins.

L’enjeu d’un traducthon est particulier car il s’agit d’un ouvrage d’un volume important et pas seulement d’un article de presse électronique qui est une denrée périssable, comme nous en traduisons régulièrement pour le Framablog. Dans un traducthon, nous nous lançons le défi de traduire vite un texte qui devrait pouvoir être lu longtemps et dont le contenu lui aussi est important. Nous avons le sentiment d’avoir une sorte de responsabilité de publication, et la fierté de mettre à la disposition des lecteurs francophones un texte qui contribue à la diffusion du Libre, de sa philosophie et de ses problématiques.

Reste que la pratique a heureusement une dimension ludique : les outils en ligne que nous partageons pour traduire, que ce soit la plateforme Booki ou les framapads, même s’ils ne sont pas parfaits, offrent la souplesse et l’ergonomie qui les rendent finalement amusants à pratiquer. Tous ceux qui ont utilisé un etherpad pour la première fois ont d’abord joué avec les couleurs et l’écriture simultanée en temps réel. Même au cœur du rush des dernières heures d’un traducthon, lorsque nous convergeons vers les mêmes pages à traduire pour terminer dans les temps, c’est un plaisir de voir vibrionner les mots de couleurs diverses qui complètent un paragraphe, nettoient une coquille, reformulent une tournure, sous le regard de tous.

Traduction ouverte, esprit ouvert

N’oublions pas tous ceux qui « passent par là » et disent bonjour sous la forme d’un petit ou grand coup de pouce. Outre ceux qui ont décidé de réserver du temps et de l’énergie pour se retrouver in situ, nombreux sont les contributeurs et contributrices qui collaborent sur place ou en ligne. Beaucoup découvrent avec intérêt la relative facilité d’accès de la traduction, qui demande plus de qualité de maîtrise des deux langues (source et cible) que de compétences techniques. Quelques phrases, quelques pages sont autant de contributions tout à fait appréciées et l’occasion de faire connaissance, voire d’entrer plus avant dans le jeu de la traduction en rejoignant framalang.

Plus on participe, plus on participe. Il existe une sorte d’effet addictif aux sessions de traduction collective, de sorte que d’une fois à la suivante, on retrouve avec plaisir quelques habitués bien rodés et d’autres plus récemment impliqués qui y prennent goût et y reviennent. Participer à un traducthon, c’est appréhender de près et de façon tangible la puissance du facteur collaboratif : de l’adolescent enthousiaste à l’orthographe incertaine au retraité venu donner son temps libre pour le libre en passant par le développeur qui apporte une expertise technique, chacun peut donner et recevoir.

Enfin, et ce n’est pas là un détail, la pratique du traducthon apprend beaucoup à chacun. Certains découvrent qu’ils sont à la hauteur de la tâche alors qu’ils en doutaient (nulle contrainte de toutes façons, on choisit librement ce que l’on veut faire ou non), mais pour la plupart d’entre nous c’est aussi une leçon de partage du savoir : nos compétences sont complémentaires, l’aide mutuelle est une évidence et la modestie est nécessaire à tous. Voir par exemple son premier jet de traduction repris et coloré par un traducteur professionnel (Éric, reviens quand tu veux ?!), se faire expliquer une tournure de slang par un bilingue et chercher avec lui un équivalent français, découvrir une thèse audacieuse au détour d’un paragraphe de la version originale, voilà quelques exemples des moments enrichissants qui donnent aussi sa valeur à l’exercice.

Le mot, la chose

Une discussion trolloïde de basse intensité est engagée depuis le début sur le terme à employer pour désigner le processus de traduction collaborative dans la vraie vie en temps limité. Quelques observations pour briller en société :

  • C’est un peu l’exemple des booksprints initiés par Adam Hyde et la bande des Flossmanuals qui nous a inspiré l’idée de nos sessions, on pourrait donc adopter tradusprint, surtout dans la mesure où c’est une sorte de course de vitesse…
  • En revanche lorsque une traduction longue demande plusieurs jours et un travail de fond (ne perdons pas de vue le travail indispensable de révision post-traduction), il est assez cohérent de parler plutôt de traducthon.
  • Pour être plus consensuel et « couvrir » tous les types de session, le mot tradaction a été proposé à juste raison

Ci-dessous, reproduction de l’affichette amicalement créée par Simon « Gee » Giraudot pour annoncer le traducthon aux RMLL de Strasbourg. À noter, Simon a également contribué à la traduction d’un chapitre !

Geektionnerd - Simon Gee Giraudot - CC by-sa

Et le Web ouvert alors ?

C’était justement le fruit d’un booksprint à Berlin l’année dernière, le voilà maintenant en français. Ce qui est assez frappant pour aller droit à l’essentiel, c’est la rhétorique guerrière qui en est le fil rouge. Au fil des pages on prend conscience de l’enjeu et de l’affrontement déjà en cours dans lequel nous pouvons jouer un rôle décisif. C’est maintenant et peut-être dans les deux ans qui viennent pas plus qu’il y a urgence à ce que nos pratiques de la vie numérique maintiennent et étendent un Web ouvert.

Le Web n’est pas un amoncellement de données, ni un amoncellement d’utilisateurs, le Web ouvert existe quand l’utilisateur propose librement des données et s’en empare librement. Le Web n’a pas d’existence tant que ses utilisateurs ne s’en emparent pas.

Nous voulons un Web bidouillable, libre et ouvert. Nous voulons des navigateurs Web extensibles, d’une plasticité suffisante pour répondre à nos goûts et nos besoins. Nous voulons contrôler nos données et en rester maîtres, non les laisser en otages à des services dont la pérennité et les intentions sont suspectes. Nous ne voulons pas que notre vie numérique soit soumise ni contrôlée, filtrée, espionnée, censurée.

Le Web n’appartient pas aux fournisseurs d’accès, ni aux états, ni aux entreprises.

Le Web n’appartient à personne, parce que nous sommes le Web.

Au fait, si vous voulez parcourir Pour un Web ouvert, c’est… ici en HTML et là en PDF.

Antoine Turmel - CC by-sa

Bonus track

Une interview au cours du traducthon de Strasbourg pour la radio québécoise La Voix du Libre.

Crédit photos : Antoine Turmel et Antoine Turmel (Creative Commons By-sa)




Dans les ateliers libres du futur tout objet produit est en bêta

Il y a de l’espoir. Qu’on les appelle fab lab ou, comme ici, open source workshops, il se passe véritablement quelque chose dans le monde matériel actuellement. Quelque chose qui localement nous donne envie de nous retrouver pour créer ensemble et donner du sens à cette production[1].

Dans ce monde en gestation, certains mots comme compétition, délocalisation, marketing, argent, banque, normalisation… s’estompent pour laisser place à un vivre ensemble potentiel qui sonne moins creux que dans la bouche des politiciens.

Il en aura fallu passer par internet, et par l’expérience virtuelle probante de projets collaboratifs comme le logiciel libre ou Wikipédia, pour en arriver là. Là c’est-à-dire en des lieux où il ne tient qu’à nous de faire pousser nos propres ateliers libres, tel l’Open Design City de Berlin dont nous vous racontons l’histoire ci-dessous.

Comme le dit Stallman lorsqu’il nous salue : « Happy Hacking! »

Un aperçu du futur du « Do It Yourself » : les ateliers libres – Tout produit est en bêta !

A Peek at the Future of DIY: Open-source Workshops – Every product is beta!

Jude Stewart – 4 octobre 2010 – Fast Co Design
(Traduction Framalang : Lolo le 13, Goofy, Julien, Mammig et Martin)

Le « faites-le vous-même » (NdT : Traduction littérale et non satisfaisante du DIY pour Do It Yourself) règne en maître dans le monde virtuel. Nous pouvons en effet aujourd’hui construire librement et sans trop de frais nos propres blogs, e-books et magazines Web. Par contre fabriquer des choses réelles, palpables et tangibles semble être le domaine réservé de ceux qui savent s’y prendre avec un marteau et des clous.

Fast Co Design

Ce n’est pourtant plus le cas désormais. La révolution open source est en train de mettre la conception des produits entre les mains de tout un chacun. Prenez l’Open Design City (ODC) basé à Berlin. C’est un atelier dans lequel n’importe qui peut apprendre à faire à peu près n’importe quoi, du portefeuille en bioplastique à la lampe à pull-overs (cf ci-dessous). La recette est simple comme un sourire : rassemblez des personnes qui veulent partager des idées et collaborer, apprennez-leur à utiliser quelques machines-outils, puis faites des choses sympas ensemble.

C’est un mouvement qui peut potentiellement se substituer à la manière traditionnelle de concevoir et fabriquer industriellement des objets, voire même changer notre mode de consommation. « Je crois fortement que nous verrons émerger de plus en plus d’espaces comme celui-ci » dit Christoph Fahle d’Open Design City. « Nous ne sommes pas à proprement parler dans du développement scientifique, parce que pour que cela marche, il n’y a pas besoin d’expert en balistique. Il s’agit plutôt de favoriser les interactions sociales permettant de créer de nouvelles choses. Si vous regardez Facebook, ce bien moins sa technologie qui a influencé les usages que l’idée du réseau social

Les ateliers ouverts sont une conséquence et un prolongement de la fièvre que connaît actuellement le Do It Yourself. Il y a beaucoup de ressources et d’énergie sur des sites comme MAKE, Instructables.com et IKEAhacker ou de réseaux de vente comme Etsy et Supermarket. Aujourd’hui les gens peuvent acheter leurs propres imprimantes 3D pour moins de 1 000 $.

Fast Co Design

Le co-fondateur Jay Cousins est arrivé dans Open Design City par une voie détournée. Il était un concepteur de produits haut de gamme spécialisé dans ce qu’il appelle la vaisselle et il fut déçu de cette expérience. « Ce travail s’est transformé en piège, tout devenait management au lieu d’être créativité » se souvient-il. « C’est ce qui m’a fait penser en un lieu où les concepteurs et les inventeurs se retrouvent ensemble pour participer à la production. » À la recherche d’une nouvelle inspiration, Jay Cousins a déménagé à Berlin en 2009 et a attéri à Palomar 5, un espace innovant sponsorisé par Deutsche Telecom (malgré son nom qui sonne très hippie). À Palomar 5, « nous avons beaucoup observé comment nous nous collaborions » dit Jay Cousins. « Vous entrez dans un intense conscience de ce qui vous soutient dans votre énergie créative et de ce qui vous bloque ». Là-bas, il rencontra Christopher Doering, un concepteur produit qui est passé par la Bauhaus University de Weimar.

Après ces six semaines à Palomar 5, tout deux eurent envie de créer leur propre atelier ouvert. La fortune souriant aux audacieux, l’occasion de présenta et, au cours du printemps dernier, Jay Cousins et Christopher Doering mirent sur pied un atelier DoIt Yourself à Betahaus, un nouvel espace de travail collaboratif dans le quartier Kreuzberg de Berlin, Open Design CIty était né.

Fast Co Design

Fast Co Design

À Open Design City les travailleurs du premier étage peuvent déambuler au rez-de chaussée et louer des outils à l’heure ou au jour. Ils peuvent participer à un atelier ouvert dans lequel un responsable enseigne au groupe une technique particulière puis ouvre l’étage aux expérimentations.

L’équipement mis à leur disposition des participants est vaste. Ils peuvent ainsi faire joujou avec des outils (scies, scies sauteuses, marteaux…), un sérigraphe pour les textiles, du matériel photographique, des plaques électriques et un évier, de la laine, du savon et du papier-bulle pour faire du feutre, un stock généreux de fécule, de vinaigre et de glycérine qui une fois mélangés avec de l’eau et chauffés font un bioplastique modelable et modulable.

Peu d’outils sont véritablement high-tech mis à part une imprimante 3D qui imprime en pressant de fines couches de certains matériaux et qui est capable de produire une forme en utilisant les données en trois dimensions que l’utilisateur lui donne. Une telle machine ressemble à un four : une fine couche de nylon est chauffée jusqu’à ce qu’elle s’amolisse puis est injectée dans un moule dans lequel elle se durcit à nouveau. Open Design City n’a pas de découpage laser ou d’autres outils similaires permettant de le qualifier pleinement de « fablab ».

La grosse partie de l’équipement provient des dons. « Un type a un jour acheté une tonne de briques Légo blanches en choisissant d’en offrir quelques uns à l’atelier » dit Fahle.

Fast Co Design

Fast Co Design

Apprendre à utiliser l’équipement est d’ordinaire la partie la plus difficile.

Doering se souvient d’un membre de l’ODC, une responsable de communication née en Iran qui travailait au betahaus. Elle voulait faire des énormes lettres en polystyrène expansé pour écrire des slogans lors d’un événement de soutien à la résistance iranienne (cf ci-dessous). Après avoir fait faire des devis « incroyablement cher » dans un atelier de prototypage traditionnel, elle est venue à l’ODC pensant qu’elle pourrait expliquer son projet et ensuite le laisser entre des mains plus expertes. Eh bien non. « Nous avons fait un marché : qu’elle nous aide à acheter une machine pour couper le polystyrène et on lui enseignera alors (à elle et à ses amis) comment l’utiliser » explique Doering. « Au début, elle ne cessa de répéter : Ce n’est pas possible ! Comment pourrai-je faire ça ? Mais une fois que nous avions passé 15 minutes ensemble, elle a vu comment c’est vraiment amusant et facile à faire. Elle et ses amis se sont totalement éclatés à faire ça. Ils ont passé une semaine à couper comme des dingues, monter une fausse prison en briques et inventer une méthode pour joindre les lettres. Tout ce dont il y avait besoin était ce petit coup de pouce de départ. »

Fast Co Design

Open Design City enourage une méthode parallèle de travail qui compose avec les égos et promeut le sens du jeu. Cousins explique : « Si je crois qu’un projet doit être réalisé d’une certaine manière et Chris a une idée différente, au lieu de nous disputer pour savoir laquelle est la meilleure, nous essayons les deux méthodes en même temps et partageons ce que nous apprenons au fur et à mesure. »

Est-ce que le talent ou l’expérience importe dans ce meilleur des mondes ? Oui et non.

Doering aime la façon dont les ateliers ouverts comme Open Design City remettent en question l’idée même de qualité (d’autant que c’est le sujet de sa thèse au Bauhaus). « La qualité doit toujours répondre à certains critères objectifs, bien sûr », explique-t-il, « la culture industrielle dit : voici un produit pour une certaine utilisation et qui a une certaine valeur. Mais les objets aiment à s’échapper des carcans. Il est totalement limitant de dire : c’est une lampe, son but est de remplir l’espace avec de la lumière. Parce que c’est aussi un cadeau de votre grand-mère, c’est une touche personnelle dans votre living-room, etc. et il faut conserver cette flexibilité-là. »

Il a pris une feuille de plastique d’amidon sur l’établi et il l’a brandie. « C’est un biopolymère. Ce n’est pas résistant à l’eau et je ne sais pas combien de temps cela peut tenir en état, un an, peut-être. Voilà au contraire ce qui se passe avec les plastiques à base de pétrole : ils durent éternellement et ce n’est pas une bonne façon de penser. Nous n’aimons pas nos produits aussi longtemps ».

La valorisation des déchets (NdT : upcycling), qui récupère de vieux produits pour les recombiner dans de nouveaux objets désirables, est au programme de futurs événements de l’ODC.

Fast Co Design

Tout cela résonne furieusement anti-industriel — et d’un certain côté c’est bien le cas.

Mais en tant que concepteur produit et pionnier du mouvement Open Design, Ronen Kadushin nous rappelle que renverser la structure du pouvoir dans l’entreprise n’est pas le but. « Vous connaissez le vieux proverbe romain à propos de la hache de votre grand-père ? » dit-il. « Mon père a changé son manche et j’ai changé la lame. Rien de ce que j’ai dans la main ne vient de mon grand-père, mais c’est toujours la sienne. C’est une tradition de valeur. Nous n’avons désormais plus d’objets qui remplissent ce besoin ; nous n’avons pas de hache. La meilleure façon de rester attaché à un produit ou un objet est de le faire soi-même. »

Vers quel avenir pourrait nous mener la fabrication libre de tels produits ?

Vers un Moyen Âge dopé au silicium, répondent Doering, Fahle et Cousins, dans lequel des artisans seraient connectés « localement » avec toute la planète grâce à internet. « Une telle perspective est un peu régressive, en fait » admet Cousins. « Elle nous ramène à l’ère du boulanger, du fabricant de meubles, du spécialiste en électronique, de votre homme à tout faire — un système distribué dans lequel nous reconnaissons mutuellement nos compétences, et les valorisons. Nous ne pouvons plus nous permettre de prendre un objet et de déclarer : « il est 100% éthique, personne n’a été blessé, aucune communauté n’a été décimée au cours de sa fabrication » parce que c’est trop complexe à gérer et non satisfaisant puisque nous demeurons passifs. Diffuser et partager la connaissance de la fabrication d’objets au sein de la communauté ODC nous apporte de la résilience tout en nous permettant de mieux nous débrouiller seuls ».

Fast Co Design

« Mais ce n’est pas seulement une question de survie », poursuit Cousins, « Nous luttons pour nous reconnecter à une communauté et une culture de la participation. C’est un lien très puissant qui s’est progressivement étiolé au cours de ces cent dernières années ». Le paradoxe n’est qu’apparent : les déchets de la révolution industrielle devenant le matériau brut pour des ateliers de type médiéval, un mouvement rendu possible par un Internet massivement collaboratif, une population lassée de vivre virtuellement, et des machines dont le prix s’est démocratisé grâce à une base de consommateurs désireuses d’acheter de nouveaux moyens de production. Ce qui est vieux redevient alors réellement nouveau.

Notes

[1] Crédit photos : Betahaus




Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




Le Framablog fête ses 1000 billets !

Shandi Lee - CC byBon ben voilà, ceci est (déjà) le millième billet du Framablog ! Il tombe un dimanche matin en plein mois d’août, il ne devrait pas y avoir beaucoup de convives au banquet[1]. La fête sera plus que confidentielle 🙂

L’aventure avait commencé ici, en septembre 2006, et contrairement à ce qui avait été annoncé on a beaucoup plus parlé du « Libre » que de Framasoft.

Par contre nous sommes restés relativement en phase avec à la phrase mise en exergue sur le bandeau : « mais ce serait peut-être l’une des plus grandes opportunités manqués de notre époque si le logiciel libre ne libérait rien d’autre que du code ».

Les digues de la résistance sont hautes et solides et il reste encore beaucoup à faire. Mais l’agent émancipateur logiciel libre est bien en train de produire ses effets et d’inspirer dans son sillage de toujours plus nombreux domaines de l’activité humaine.

C’est cette histoire en marche que nous essayons modestement de témoigner et de chroniquer ici depuis cinq ans, en assumant notre oscillation permanente entre la neutralité journalistique et le parti pris de ceux qui y croient.

Je dis « nous » parce que la plume de ce blog n’est pas uniquement tenue par son « dictateur bienveillant à vie ».

Il y a eu d’autres rédacteurs, tel l’auteur du Geektionnerd pour n’en citer qu’un. Il y a eu aussi tous ceux qui ont bien voulu que l’on reproduise leurs articles en ces lieux. Et puis surtout, ce qui constitue sans nul doute la plus forte valeur ajoutée du site, toutes ces traductions que nous devons à notre dream team Framalang. En y ajoutant les commentateurs, on a l’équipe au complet que je remercie chaleureusement comme il se doit pour son implication.

Ici comme ailleurs, la route est décidément fort longue mais ensemble la voie semble bel et bien toujours plus libre. Rendez-vous, soyons prudent, au prochain anniversaire, aKa.

PS : J’en ai profité pour mettre à jour la page « Best of » censée compiler non pas tant le meilleur du blog que des articles dont l’interet est susceptible de dépasser le temps éphémère de l’actualité.

PS2 : À propos de chiffre mille, je rappelle subrepticement l’existence de notre campagne de dons « 1000 10 1 », car là aussi il reste beaucoup à faire si nous ne voulons pas réduire la voilure.

Notes

[1] Crédit photo : Shandi Lee (Creative Commons By)




Planifier librement ses rendez-vous avec Framadate

Framadate.org

Aujourd’hui, nous avons le plaisir de vous annoncer un nouveau site en “beta test” sur le réseau Framasoft : http://framadate.org

Vous avez besoin de trouver la meilleure date pour une sortie au resto entre amis ? Vous voulez savoir quelle serait l’heure qui conviendrait le mieux pour cette importante réunion de travail ? Vous voulez savoir qui amène la bière, les pizzas ou le dessert ?

Alors Framadate est fait pour vous ! 🙂

Plutôt que d’échanger de nombreux emails (avec toujours le boulet qui oublie de faire « répondre à tous » et dont on perd donc trace du message), il suffit de créer un sondage sur Framadate.org et d’en envoyer le lien aux participants (par email, par Twitter (ou identica), Facebook (ou diaspora 🙂 ), etc).

Quelques clics plus tard, vous saurez quelle est la date qui convient le mieux. On peut difficilement faire plus simple !

Framadate est un service proposé librement et gratuitement par le réseau Framasoft. Inspiré du service Doodle, il est basé sur l’application libre STUdS! développée par l’Université de Strasbourg, Framasoft ayant principalement relooké et sécurisé l’application. Le code source de Framadate est bien évidemment disponible.

<teasing>
Framadate est un service qui fait partie du projet “Framatools”, qui visera à sensibiliser le grand public à la décentralisation des données et applications.

En effet, de plus en plus de logiciels fonctionnent directement au sein des navigateurs web (d’où l’importance de navigateurs libres et de confiance) : c’est le fameux “cloud”. Cependant, cette informatique “dans les nuages” pose un certain nombre de problèmes : protection de la vie privée, propriété des données mais aussi sécurité et fiabilité du service.

Framasoft va donc proposer un certain nombre de services en ligne basés sur des applications libres [1].

Évidemment, cela peut paraître paradoxal, puisqu’on y retrouve sensiblement les mêmes problématiques de sécurité et de fiabilité du cloud “privé”. Cependant, il faut voir ces services comme des « produits de démonstration » fonctionnels et maintenus par nos soins. Un site de sensibilisation aux dangers du cloud sera mis en place d’ici la rentrée, et expliquera pourquoi et comment installer, chez soi ou pour son organisation, sa propre instance de l’application. </teasing>

Notes

[1] Framasoft propose d’ores et déjà le site de rédaction collaborative Framapad, par exemple.




Parution du livre «  Libres Savoirs : les biens communs de la connaissance »

Libres Savoirs - C&F EditionsS’il fallait rechercher une unité, une cohérence, voire une politique, à la ligne éditoriale du Framablog, on pourrait bien les trouver du côté de la notion de « biens communs ». C’est pourquoi la parution récente du livre « Libres Savoirs, les biens communs de la connaissance » nous semble un évènement important.

Coordonné par l’association Vecam, ce livre offre un panorama des biens communs de l’immatériel, depuis les usages numériques jusqu’aux savoirs et connaissances scientifiques ou traditionnelles. Cette approche par les communs permet d’interroger les modèles politiques et les activités des mouvements sociaux. Réunissant trente auteurs, venus de tous les continents, il constitue une référence sur la théorie des biens communs, embrassant tout le spectre de ces nouveaux communs de l’immatériel. Et soulevant des questions nouvelles pour le 21ème siècle.

Nous en avons reproduit ci-dessous le texte introductif qui annonce bien la couleur et la suite de l’ouvrage. On trouvera toute l’information sur ce livre sur le site de C&F éditions.

Remarque : Nous sommes fiers d’avoir participé, indirectement et modestement, au projet. En effet le livre contient le fort intéressant article Les biens communs ou le nouvel espoir politique du XXIe siècle ? traduit par nos soins (Framalang) à même ce blog.

Les biens communs, une utopie pragmatique

URL d’origine du document

Valérie Peugeot – mai 2011 – Libres Savoirs, les biens communs de la connaissance
Licence Creative Commons By-Nc

information, savoir et culture sont chaque jour un peu plus le cœur battant de nos sociétés. Éléments premiers d’une part croissante de notre activité économique, ils contribuent à façonner nos manières de faire société. Nos apprentissages et nos modes cognitifs, notre engagement dans le travail rémunéré tout comme notre autonomie par rapport à ses institutions, nos relations aux autres, nos pudeurs et nos exhibitions, notre espace-temps, nos attentions et inattentions, l’accord de notre confiance et la construction de nos choix, nos déplacements, notre connaissance de soi, nos rapports aux objets, notre distance ou notre attachement à l’égard de la res publica… autant de champs bousculés, voire transformés par cette ébullition créative que l’on appelle société de la connaissance.

Si l’on admet que la connaissance et son vecteur, l’information, sont à l’ère informationnelle ce que l’énergie, les matières premières et la force de travail furent aux sociétés agricole et industrielle, alors les conditions de leur circulation, appropriation et partage deviennent cruciales. La période dans laquelle a émergé la société de l’information – années 1980-2000 – a coïncidé avec une époque de radicalité de la pensée économique libérale dans les pays occidentaux. Simple coïncidence ou facteur déterminant ? Sans rentrer dans ce débat, on observe aujourd’hui que les régimes juridiques qui régissent les conditions de propriété et de redistribution des ressources informationnelles et des connaissances sont totalement imprégnés de cette philosophie. Les logiques de marché y règnent en maître, et les régulations nationales et internationales poussent inlassablement dans le même sens, celui du renforcement des droits de propriété sur l’immatériel, au détriment de tout autre modèle plus équitable. La durée du droit d’auteur est périodiquement rallongée ; les brevets couvrent maintenant des domaines auparavant exempts de toutes formes de propriété, comme le vivant, les découvertes ou les mathématiques ; le domaine public devient un espace de déshérence et non de valorisation des œuvres de l’esprit; les exceptions aux droits de propriété prévues pour les enjeux de santé publique sont contournés par des traités bilatéraux ; des dispositifs techniques viennent verrouiller la circulation des créations ; les savoirs collectifs ancestraux sont confisqués par des acteurs privés… Dans un même temps, les conditions du renouvellement de ces ressources cognitives – l’enseignement, la formation devenue indispensable tout au long de la vie – sont renvoyées à des acteurs publics dont les moyens et l’autonomie ne cessent de baisser.

La connaissance ne peut être assimilée à du pétrole ou de l’acier. L’accaparement du savoir nourrit bien entendu un système inégalitaire, tout comme celui des terres ou des matières premières ; lorsque des entreprises de l’industrie informationnelles dégagent des bénéfices nets de plus de 15 % et nourrissent une finance internationale débridée, cela se fait bien entendu au détriment des populations exclues de cette redistribution. Mais la concentration des biens informationnels et cognitifs et les limites à leur circulation ont d’autres effets tout aussi fondamentaux : ils contribuent à long terme à un assèchement de la créativité et de la diversité culturelle en concentrant les investissements dans les mains de quelques acteurs homogènes ; ils dépouillent des populations de leurs savoirs historiques et ce faisant privent des communautés de leurs propres ressources, notamment en matière agricole ; ils privent des malades de l’accès aux soins au nom de la rentabilisation de l’invention… Culture, santé, survie alimentaire tout autant que justice sociale sont donc en jeu.

Face à cette logique, d’autres manières de penser la mise à disposition de la connaissance, l’accès au savoir et la rémunération des créateurs ont vu le jour. Dans le monde paysan, dans celui de la défense des malades, dans l’univers du logiciel, de la recherche scientifique ou de la création artistique, chez les peuples autochtones, dans le design numérique…, les communautés se sont multipliées pour affirmer et expérimenter la possibilité de placer des savoirs en régime de biens communs. Ces biens communs sont pensés tout à la fois comme un statut alternatif à la privatisation du savoir et comme un mode de gouvernance par une communauté dédiée. Accès aux savoirs, biens communs de la connaissance, deux facettes d’une même question, la première mettant l’accent sur l’obstacle à lever, la seconde sur les réponses apportées.

Éparses dans un premier temps, ces initiatives émanant de communautés spécifiques ont commencé depuis une demi-décennie à se décloisonner, à s’articuler. Ce livre, en rassemblant des auteurs relevant de ces différentes communautés, voudrait marquer ce temps très particulier où des acteurs souvent marginaux, en résistance, se rassemblent et prennent conscience qu’ils participent d’un même horizon de sens et construisent des alternatives à part entière.

Si ce temps est aujourd’hui possible, nous le devons à une série de facteurs.

En premier lieu, les communautés de biens communs du numérique qui ont vu le jour entre le début des années 80 et les années 2000 (depuis le logiciel libre jusqu’aux Creative Commons et aux revues scientifiques ouvertes en passant par les archives en accès libre…) ont montré leur robustesse et leur pertinence, gagnant toujours plus d’utilisateurs et/ou de contributeurs. Toutes n’occupent pas une place essentielle dans leur secteur (la recherche, la culture, l’éducation…). Mais leur appropriation et leur pertinence a minima questionnent les modèles économiques existants, à l’image des journaux scientifiques marchands qui se voient contraints, du fait de l’existence des revues en accès libre, de proposer un modèle de diffusion ouvert à côté du modèle traditionnel. Les actions de ces communautés interpellent les institutions les plus arc-boutées sur le renforcement des droits de propriété intellectuelle, et diffusent une culture de l’alternative dans la société, à l’image des mouvements de partage et de création construisant une « free culture ».

Autre virage essentiel, nous assistons ces dernières années à un rapprochement théorique entre les communautés de biens communs liées à des ressources naturelles et celles dédiées à des connaissances numérisables. Nous le devons notamment à la double impulsion d’Elinor Ostrom et de Charlotte Hess, marquée par la publication en 2007 de leur livre fondateur Understanding knowledge as a commons. Même si des différences substantielles existent entre ressources naturelles et connaissances, notamment leurs propriétés économiques, cette confrontation/collaboration théorique est absolument essentielle, ne serait-ce que parce qu’elle permet de réinscrire les communs de l’immatériel dans une histoire qui leur donne un surcroît de légitimité.

Enfin, l’apparition de nouvelles communautés autour du « open hardware » jette de façon très concrète un pont entre matériel et immatériel: en concevant et fabricant des objets mécaniques ou électroniques dont les modèles de conception sont rendus publics et réutilisables, de telle manière que n’importe qui peut décider de les fabriquer, les distribuer et les utiliser, ces acteurs de la production coopérative (P2P production) s’inspirent du logiciel libre pour en appliquer les règles au monde du tangible.

Articulation des mouvements engagés dans la défense de l’accès au savoir, décloisonnement intellectuel et opérationnel des biens communs de la connaissance et de ressources naturelles, montée en puissance des démarches et des produits ou services qui relèvent de cette dynamique : ces convergences donnent toute leur actualité et leur pertinence aux perspectives ouvertes par les communs.

Le dépassement du dualisme réducteur État/marché qui structure la pensée politique depuis plus d’un siècle et demi constitue l’une de ces perspectives et non la moindre. Alors que partis politiques, syndicats, mouvements militants se situent historiquement sur une ligne partant du tout État pour aboutir au tout marché en passant par tous les métissages possibles, les communs nous enseignent qu’il existe, non pas une troisième voie, mais une autre manière de penser et de faire en politique comme en économie ; une approche qui ne se situe ni contre le marché ni contre l’État mais à côté et s’articule avec ces deux pôles parfois de façon très poreuse. Lorsque l’État du Kérala en Inde édicte une législation pour accompagner les communautés (médecine ayurvédique, plantes médicinales villageoises) dans la protection de leurs savoirs traditionnels, gérés historiquement sous forme de communs, il évite de les placer dans un domaine public, où chacun, et donc prioritairement les mieux dotés, pourrait puiser sans retombées envers les communautés dépositaires. Il y a là articulation positive entre les communs et l’État. Lorsqu’un site web comme Flickr, propriété de Yahoo! laisse le choix à ses utilisateurs de placer leurs photos en droit d’auteur classique ou en contrat Creative Commons et ouvre un espace dédié aux œuvres du domaine public, nous sommes là aussi dans une coopération positive, cette fois-ci entre marché et communs. Cette mise en lumière d’une complémentarité remplaçant la concurrence entre les trois formes de régulation que sont le marché, l’État et les communs s’explique aussi par le pragmatisme de ces derniers. Les défenseurs des communs ne cherchent pas à construire une narration globale mais répondent à des besoins très concrets, souvent très locaux quand il s’agit de communs matériels, auxquels des communautés doivent faire face : assurer l’entretien d’une forêt, transmettre un savoir médicinal, trouver une ressource éducative librement accessible adaptée à un enseignement, créer des objets qui puissent être conçus et produits localement, renouveler la biodiversité cultivée par l’échange des semences… C’est souvent pour résoudre des objectifs personnels que des développeurs créent des logiciels libres, et c’est parce qu’ils souhaitent accéder aisément aux publications des autres que des chercheurs placent leurs résultats en accès libre. C’est l’agglutination progressive de ces expériences de gouvernance « en communs » qui fait promesse et non une idéologie in abstracto dont nul ne sait ni comment ni quand elle adviendra, ni ne peut deviner à l’avance les effets secondaires, dont on sait qu’ils peuvent être catastrophiques.

Ce processus d’agglutination est d’ailleurs l’un des enjeux majeurs auxquels doivent faire face les communs : comment les différentes expériences peuvent-elles se féconder au-delà d’une reconnaissance mutuelle ? Là encore, la dialectique entre les communs matériels et ceux de la connaissance constitue une expérience sociale enrichissante. Mais d’autres questions doivent être affrontées. Celle du passage à l’échelle n’est pas la moindre. Les communautés gérant des biens communs de ressources naturelles sont pour l’essentiel ancrées à l’échelle locale. Les communs sont-ils en capacité d’apporter des réponses à des enjeux planétaires comme la question climatique ? Ou de gérer des biens globaux comme les océans ou le spectre électromagnétique ?

La réaction du marché à la diffusion des biens communs, notamment numériques, peut également considérablement changer la donne. Car si les communs ne se construisent pas contre le marché, ce dernier peut néanmoins les percevoir comme une menace. Cette réaction défensive est particulièrement outrancière dans le champ des œuvres culturelles, où on a cherché à disqualifier les communs et les logiques de partage en les assimilant à du vol. Heureusement, dans d’autres secteurs industriels, la réaction n’est pas toujours aussi radicale, certains acteurs du marché ayant bien compris que le renouvellement de l’innovation passe par des modèles plus ouverts que ceux de la R&D traditionnelle. Ainsi voit-on se multiplier des projets de « recherche ouverte » rassemblant des acteurs hétérogènes – entreprises, collectivités locales, ONG… – et imaginant d’autres conditions de circulation des fruits de l’innovation.

Autre complexité pour les acteurs des communs, celle de l’appropriation de la démarche par des acteurs civiques et sociaux issus de la société pré-informationnelle. La philosophie des communs essaime relativement facilement dans le monde du numérique, en raison des qualités intrinsèques de l’immatériel. Les biens numériques sont dotés de propriétés qui précédemment n’appartenaient qu’aux biens publics : non excluabilité et non rivalité, reproduction illimitée pour un coût marginal proche de zéro. Cette situation ouvre par nature une brèche dans la pensée économique et politique et invite au renouvellement des théories. Plaquer des modèles historiques sur l’immatériel ne fonctionne tout bonnement pas. En revanche, pour les syndicats, les mouvements paysans ou les ONG qui œuvrent dans des secteurs économiques traditionnels, les alternatives proposées par les communs sont moins évidentes. Surtout dans la période que nous vivons, quand cohabitent une grille de lecture des rapports de production et des rapports sociaux venant de l’époque à prédominance industrielle, et l’analyse de la nouvelle situation du travail immatériel et de sa place dans l’économie en général. Cette nouvelle étape dans le décloisonnement est désormais essentielle.

Aujourd’hui les acteurs impliqués dans les différentes communautés de biens communs n’ont pas de prétention à être « le » mouvement mais à poursuivre des chemins originaux tout en intensifiant les échanges théoriques et pragmatiques tirés de leurs expériences, de leurs succès comme de leurs échecs, avec un cercle toujours plus large.

C’est à cette dynamique que cet ouvrage entend, modestement, contribuer. Ce sont les mouvements existant autour du partage de la connaissance, de son renouvellement collectif, évitant l’accaparement par quelques monopoles de l’ère informationnelle qui sont aujourd’hui porteurs de ce nouveau questionnement. En essayant de suivre les expériences de construction des communs menées dans les deux dernières décennies, dans leur diversité, comme dans leurs nombreuses similarités, nous voulons offrir au lecteur un éventail aussi large que possible des utopies pragmatiques et des mouvements concrets qui existent autour des communs de la connaissance. En espérant ainsi contribuer au nécessaire renouvellement de la pensée transformatrice dont le monde a tant besoin.




L’expérience Sugar Labs préfigure-t-elle une révolution éducative du XXIe siècle ?

Danishkanavin - CC by-saDu projet One Laptop per Child (ou OLPC) les grands médias ont surtout retenu qu’il s’agissait de mettre un ordinateur entre les mains des enfants des pays défavorisés. Confondant la fin et les moyens ils sont alors souvent passés totalement à côté de son intérêt principal qui est pédagogique. Negroponte n’a de cesse à juste titre de le répéter : « le projet OLPC n’est pas un projet informatique, c’est un projet éducatif ».

Lorsqu’une écolière Uruguayenne et un écolier Uruguayen allument leur petit ordinateur vert, ils se retrouvent sur une interface qui est fort différente du classique environnement graphique d’un Mac, Windows ou d’une distribution GNU/Linux.

Ici on abandonne la métaphore du bureau. Applications et fichiers sont bien entendu toujours présents mais ce qui est mis en avant c’est l’interaction avec les autres, ce qui apparaîtra de suite à l’écran c’est la présence du camarade, ce sur quoi il travaille, sachant qu’il est alors facile de le rejoindre pour collaborer.

Cette interface innovante et pleine de promesses s’appelle Sugar (cf vidéo). Elle est déjà massivement utilisée dans des pays comme l’Uruguay (cf vidéo) et nous voici alors projetés à des années-lumière de ce qu’une école française peut proposer non seulement comme outil mais aussi et surtout comme conception générale de sa fonction et de ses missions[1].

En matière d’éducation et de nouvelles technologies, il y a ceux qui pensent qu’il est important de savoir comment mettre en gras dans Word, c’est-à-dire apprendre le mode d’emploi d’un logiciel propriétaire, et il y a ceux qui veulent en profiter pour… changer le monde !

Le créateur de Sugar, Walter Bender, est de ceux-là. Simon Descarpentries l’a rencontré pour nous à Paris à l’occasion de l’Open World Forum 2010 et il a gentiment accepté de nous livrer un texte inédit nous présentant la jeune fondation Sugar Labs, sa philosophie, ses objectifs et ses réalisations.

Il ne s’agit que d’un témoignage mais c’est un témoignage important car il est bien possible que se trouve là l’une des pistes possibles et souhaitables pour l’éducation de demain. Et il n’est guère étonnant de constater la convergence entre une conception dynamique, créative et collective de l’apprentissage et le logiciel libre et sa culture.

Culture communautaire : l’expérience Sugar Labs

Community culture: The experience of Sugar Labs

Walter Bender – décembre 2010 – Licence Creative Commons By-Sa
(Traduction Framalang : Siltaar, Goofy, Seb seb, Zitor, Julien et Barbidule)

Dans un article publié il y a 30 ans et intitulé « Critique de l’ordinateur contre pensée technocentrique », Seymour Papert écrivait : « le contexte du développement de l’homme est toujours la culture, jamais une technologie isolée ». Dans un autre passage du même article, Papert offre un aperçu de ce qui est nécessaire pour fonder une culture de l’apprentissage : « Si vous vous demandez que doit savoir un pratiquant averti du LOGO, la réponse va au-delà de la capacité à utiliser et enseigner le LOGO. L’adepte doit être capable de parler du LOGO, d’en faire la critique, et de discuter des critiques émises par d’autres personnes ».

30 ans après, remplaçons « LOGO » par « Sugar »

Sugar est une plateforme logicielle destinée à l’éducation des enfants. Sugar est développé et maintenu par Sugar Labs, une communauté mondiale de développeurs et d’éducateurs bénévoles. Notre objectif est l’émergence d’une génération de penseurs critiques et de gens capables d’inventer des solutions. À travers Sugar, nous nous efforçons de procurer à chaque enfant une chance d’apprendre et d’apprendre à apprendre, dans un contexte qui va lui permettre à la fois d’entamer un échange dynamique avec d’autres et de développer des moyens indépendants pour atteindre ses objectifs personnels.

Que devraient apprendre les enfants et comment devraient-ils apprendre ? Ceux qui apprennent devraient avoir accès aux idées qui nourrissent leur culture locale de même qu’aux idées puissantes qui constituent l’héritage global de l’humanité. Mais ils devraient aussi s’exercer à l’exploration et à la collaboration, et s’approprier des connaissances en menant une démarche authentiquement ouverte de recherche de solutions. Ce qui peut être réalisé au sein d’une communauté éducative construite autour d’une structure de responsabilités, c’est-à-dire avec des apprenants qui s’impliquent dans un processus d’expression, de critique et de réflexion par eux-mêmes. Qu’est-ce que j’apprends ? Comment l’ai-je appris ? Pourquoi est-ce important ? Puis-je l’enseigner à d’autres ? Est-ce que j’en ai une connaissance approfondie en l’enseignant ?

Dans cet essai, je compte exposer la façon dont Sugar nourrit une culture éducative par l’association de deux communautés – les développeurs de Sugar et ceux qui apprennent – participant à créer un « contexte favorable au développement humain » et un changement de culture scolaire.

La culture du logiciel libre

La culture du logiciel libre a influencé le développement de Sugar. Les développeurs du Libre vont au-delà du produit de consommation, ils créent et partagent leurs créations ; ils « débattent » du logiciel libre, ils en font la « critique », et ils « discutent le point de vue critique des autres ». Il ne prennent rien pour argent comptant. Les points communs entre le projet Sugar et le mouvement du logiciel libre sont les suivants : des outils pour s’exprimer, car les enfants créent des contenus autant qu’ils les consomment ; et la collaboration, car les enfants partagent leurs réalisations, s’aident mutuellement, et se lancent dans un processus de réflexion sur eux-mêmes et de critique collective.

Le projet Sugar s’inspire également de la façon dont les acteurs de la communauté du logiciel libre collaborent. Tout comme les développeurs de logiciels, les enfants discutent, se socialisent, jouent ensemble, partagent des médias, s’associent pour créer de nouveaux médias et des programmes, s’observent les uns les autres, dans un cadre à la fois formel et informel. Le projet Sugar facilite le partage, la collaboration et la critique. Les développeurs de logiciels libres et ceux qui apprennent avec Sugar rédigent des documents, échangent des livres et des images, créent de la musique ou écrivent du code ensemble. Les deux communautés s’investissent dans une « pratique de réflexion » : il s’agit de mettre en pratique leur expérience tout en étant guidé et épaulé par des « spécialistes » d’un domaine (ils peuvent être professeurs, parents, membres de la communauté dans un salon de discussion, ou encore de camarades étudiants investis dans un échange critique soutenu).

De la même façon qu’avec le logiciel libre, Sugar encourage chaque enfant à être une force créative au sein de sa communauté. L’apprentissage avec Sugar n’est pas un acte passif où l’enfant reçoit le savoir. Il est actif. On parle de créativité, d’aisance, d’innovation, et de résolution de problèmes, tout ce qui implique l’expression personnelle et les liens forts à la communauté. Sugar apporte les outils d’expression à portée des enfants pour qu’ils soient libres d’agir à l’intérieur de leur communauté et à travers leurs actions, de changer le monde. Le logiciel libre est une condition nécessaire pour établir cette culture de l’expression et de l’émancipation. Le mot d’ordre de la génération suivante d’élèves sera « montre-moi le code, que je puisse en tirer un apprentissage et l’améliorer. »

Réalisations et défis

Depuis que nous avons établi les Sugar Labs en tant que projet dans le cadre du Software Freedom Conservancy (NdT : lit. Protection des Libertés Logicielles) en 2008, nous avons démontré notre engagement à un ensemble de valeurs fondamentales qui comprennent la liberté et l’ouverture ; nous sommes devenus dans une large mesure indépendants de tout matériel et distribution (lorsque nous avons commencé, nous étions liés à une seule plateforme – le netbook XO du projet One Laptop per Child (OLPC)) ; nous avons énormément avancé sur le chemin qui conduit à une version logicielle stable 1.0 ; nous sommes forts d’une vaste communauté qui comprend près de 2 millions d’élèves utilisateurs ainsi que, bien entendu, des développeurs de logiciels et de nombreux professeurs et étudiants qui ont leur franc-parler.

Alors que nous nous débattons quotidiennement avec des défis techniques, notre défi principal est l’un des engagements avec notre communauté : comment pouvons-nous nous assurer qu’il y a un dialogue fructueux entre le développeur et les communautés éducatives liées à Sugar ? En d’autres termes, comment pouvons-nous transmettre à la communauté éducative la culture de la collaboration et de l’esprit critique qui est essentielle au développement de la plateforme Sugar, et à mieux nous permettre d’apprendre de nos utilisateurs finaux ? L’un des rôles que joue la communauté Sugar est de sensibiliser l’ensemble de l’écosystème du logiciel libre aux besoins des enseignants. Un autre rôle est de sensibiliser l’ensemble de l’écosystème éducatif au pouvoir de l’expression, de la critique et de l’auto-critique. Dans nos interactions avec les deux communautés, nous prenons grand soin de nous demander nous-mêmes : « Quel effet cela a-t-il sur l’apprentissage ? ».

Afin d’élargir nos efforts, un équilibre entre la fréquence des déploiements Sugar et la fréquence des nouveautés apportées par les Sugar Labs doit être maintenu. Nous avons un bon bilan dans notre réactivité aux besoins identifiés par les déploiements ; dans le même temps, nous sommes pro-actifs en sollicitant une plus grande participation de la communauté.

Les Sugar Labs sont aussi axés sur les besoins des enseignants. Nous avons des discussions régulières sur la façon de solliciter leurs retours. Certains initiatives, tel qu’une liste de discussions fréquentée par des enseignants et des conversations hebdomadaires sur la pédagogie sont très productives. Un exemple de notre succès est que des enseignants commencent à apporter des modifications à Sugar et à ses activités. Un autre exemple est que des professeurs d’université enseignent l’informatique avec des logiciels libres dont Sugar.

Sugar Labs se décline au pluriel

Sugar Labs est une communauté globale qui se charge de définir des objectifs clairs et de maintenir l’infrastructure dont a besoin le projet dans son ensemble. Mais la communauté Sugar encourage et facilite également la création de « labs locaux » qui apportent leurs spécificités et une autonomie pour les déploiements régionaux, y compris en partenariat avec des entreprises locales à but lucratif, ce que le Sugar Labs « central » ne peut pas faire.

Ces labs locaux :

  • adaptent la technologie et la pédagogie à la culture et aux ressources locales (ex : développement d’activités et de contenus spécifiques à une région) ;
  • aident à traduire Sugar en langues régionales ;
  • gèrent les déploiements Sugar dans les écoles de la région ;
  • créent des communautés locales adhérentes aux principes des Sugar Labs, rendant Sugar plus ouvert et autonome ;
  • permettent la communication entre ces communautés locales et la communauté mondiale Sugar Labs ;
  • hébergent, co-hébergent ou s’associent dans l’organisation de conférences, ateliers, discussions et rencontres relatifs à l’utilisation et au développement de Sugar.

Avec le temps, la charge technique se répartit sur les labs locaux (la sortie récente de « Dextrose », pour les OLPC XO construits au Paraguay, est un exemple de comment les labs locaux – menés par une communauté de volontaires – peuvent travailler ensemble pour résoudre des défis techniques et pédagogiques).

En « amont » et en « aval »

Marco Presenti Gritti, développeur Sugar et co-fondateur des Sugar Labs, me rappelait que lorsque nous avons créé les Sugar Labs, nous avons pris une décision réfléchie sur l’étendue du développement. « En suivant le modèle de l’environnement graphique GNOME, nous n’allions pas tout créer et gérer nous-même, mais nous allions nous intégrer et nous appuyer sur les distributions GNU/Linux et le projet OLPC pour le faire ».

Classiquement, un projet en amont[2] développe du code et un processus de publication. En aval, les distributions créent des paquets avec des personnalisations et distribuent un produit pour l’utilisateur final (cela implique habituellement un processus QA bien défini et un mécanisme de support).

Le spécificité éducative de notre projet a nécessité d’élargir le modèle et les communautés impliquées. Le développement et les déploiements de Sugar sont évidemment engagés dans la construction d’images, de QA, des tests, dans la recherche d’erreurs à corriger, dans la documentation, le support… qui relèvent de programmeurs experts. Mais, comme mentionné précédemment, nous travaillons également avec des étudiants et lycéens et à l’occasion un professeur qui connaît suffisamment bien le Python peut contribuer aux correctifs.

Afin de créer un produit viable et gérable, nous devions établir un équilibre entre notre travail comme projet logiciel « en amont » et les efforts « en aval » des distributeurs GNU/Linux. C’est ainsi que nous travaillons activement avec la communauté Fedora (laquelle a pris à son compte une grosse partie de la charge associée au support du matériel OLPC), la communauté Debian, openSUSE, Trisquel, Mandriva, Ubuntu (ex : le Sugar Ubuntu remixé), etc.. À l’occasion nous devons assumer un rôle de leader, comme quand nous avons pris à bras-le-corps les initiatives naissantes pour créér un Live USB« Sugar on a Stick ».

Optimisé pour la communauté

À la conférence LIBREPLANET en 2010, Eben Moglen a accordé un entretien sur tout ce qui avait été accompli par la communauté du logiciel libre. Le logiciel libre n’est plus une possibilité ; il est « indispensable », a-t-il affirmé. Ce logiciel « fiable et qui a un coût de production quasi nul » présente de nouvelles et nombreuses opportunités, en particulier dans le secteur de l’éducation, qui est toujours grevé par un budget serré. Seul le logiciel libre est « écrit une fois mais exécuté partout ».

Nous voulons aussi écrire du code fiable qui permette à Sugar d’être exécuté « partout », et nous avons réalisé de grands progrès en suivant les pas de la grande communauté GNU/Linux. Mais la communauté Sugar a un objectif supplémentaire : nous souhaitons que nos utilisateurs finaux participent également à l’amélioration du code, parce que cela participe de l’apprentissage. Si tout le monde est capable d’écrire du code et si ce code est écrit avec les modifications des utilisateurs finaux en tête, nous aurons un monde dans lequel chacun est engagé dans le « débogage », ce que Cynthia Solomon a décrit une fois comme « l’une des grandes opportunités éducatives du XXIe siècle ».

Oui la licence GPL (General Public License) utilisée par les Sugar Labs garantit que le logiciel peut être modifié par l’utilisateur final. Mais, pour la plupart des utilisateurs, ceci n’est qu’une liberté théorique si la complexité du logiciel représente une barrière insurmontable. Par conséquent, les critères habituels (fiabilité, efficacité, maintenance, etc.) sont nécessaires mais non suffisants pour l’éducation.

Aux Sugar Labs, nous faisons un pas supplémentaire en nous assurant que notre code est à la fois libre et ouvert, mais également « ouvert à la manipulation des utilisateurs finaux ».


Voici quelques actions entreprises par Sugar Labs pour encourager et faciliter les modifications des utilisateurs finaux :

  • Susciter des attentes et des envies en établissant une culture dans laquelle c’est la norme d’utiliser les libertés permises par le logiciel libre et articuler la liberté pour modifier les aspects du logiciel libre (1ère liberté).
  • Offrir des outils qui facilitent l’accès aux sources (ex : un menu « voir les sources » toujours disponible, rendant la source de chaque application à portée d’un « clic de souris »).
  • Utiliser des langages de script (Python, Javascript, et SmallTalk dans le cas de Sugar) pour que ces changements puissent être immédiats et faits directement.
  • Mettre en place des paliers pour permettre à l’utilisateur final de commencer en faisant des petits pas (alors que le langage de programmation C peut avoir une « couche haute », il n’a pas de très « basse couche »).
  • Réduire le risque associé aux erreurs en proposant des « zones tampons » ; si en touchant au code vous introduisez des bugs collatéraux ou irréversibles alors les gens seront vite conditionnés à ne pas se livrer à des comportements à « risque » en modifiant le code.
  • Fournir de « vrais » outils : s’assurez-vous que la vraie version puisse être modifiée et non une version répliquée indépendante mais peu motivante.
  • Être une communauté de soutien ; on peut dire à juste titre de la communauté Sugar qu’elle est accueillante et tolérante avec les « nouveaux venus », poser une question c’est déjà devenir membre de la communauté, nous sommes pointilleux pour ce qui concerne l’octroi de privilèges sur le « projet principal » mais nous donnons les droits pour encourager la création de branches expérimentales.

Quand on m’a demandé combien de correctifs ont été fournis par les utilisateurs de Sugar, j’ai répondu que des membres de la communauté ont contribué aux correctifs mais que je n’avais pas connaissance de correctifs apportés par des enfants. Encore faut-il faire la distinction entre correctifs envoyés et acceptés, car l’apprentissage commence en créant le correctif, en le soumettant, et en le partageant avec d’autres même lorsqu’il ne se retrouve pas accepté. Sugar a inculqué aux enfants et à leurs professeurs le sentiment qu’ils peuvent être créatifs et utiles avec l’informatique.

Cependant, après deux années d’expérience concrète de Sugar, nous commençons à voir des contributeurs émerger de sa communauté d’utilisateurs. Par exemple, en Uruguay, qui a été le premier pays à fournir des outils éducatifs libres à chaque enfant, quelques préadolescents sont en train de coder activement (un enfant de 12 ans d’une petite ville à des heures de Montevideo fréquente notre canal IRC, y pose des questions et poste du code, à la mi-décembre 2010, il a déjà envoyé huit activités sur notre portail). Quand le président uruguayen José Mujica a entendu parler de ces réalisations, il a souri et a dit avec une voix remplie de fierté : « Nous avons des hackers ». Il y a peut-être 12 enfants qui développent du logiciel libre aujourd’hui en Uruguay. L’an prochain ils seront 100. Dans 2 ans, ils seront 1000. L’Uruguay est en train d’expérimenter un changement de culture lié à un changement dans les attentes que le pays a pour ses enfants, un changement accéléré par la culture du logiciel libre.

Maximiser nos efforts

Qu’est-ce qui motive nos contributeurs et qu’est-ce qui motive les professeurs (que nous aimerions voir adopter Sugar) ?

Pour tenter d’y répondre je me suis appuyé sur l’article L’économie comportementale : les sept principes des décideurs publié par le New Economics Foundation :

  • Le comportement des autres personnes compte. Nous devons sensibiliser les professeurs aux meilleures pratiques de Sugar pour qu’ils puissent faire des émules. Pouvons-nous identifier les « génies », « contacts », « commerciaux » dans nos communautés cibles ? Quelles ressources pouvons-nous mettre en place pour les inciter à adopter Sugar ? Ainsi je travaille avec une petite école de quartier dans la ville de Boston dont l’exemple est suivi par d’autres quartiers bien plus importants. Si nous pouvons avoir une influence sur un professeur « génie » du quartier, nous pourrions avoir un gros avantage. Cela signifie également que nous devons être vigilants quant à la qualité pédagogiques de nos activités proposées.
  • Les habitudes sont importantes. Ces habitudes qui participent au status quo ne doivent pas être négligées. Qu’est-ce qui motive et encourage le changement ? Quelles actions pouvons-nous mener pour soutenir et engager les changements dans les pratiques et les comportements ?
  • Les gens sont motivés pour « faire ce qu’il faut ». Mettons alors cette notion de « faire ce qu’il faut » (NdT : do the right thing) en débat avec les enseignants, essayons de voir avec eux si leurs conceptions peuvent évoluer. En géométrie, il n’y a pas de chemin réservé aux rois, disait Euclide.
  • Les attentes des gens influencent leur comportement : ils veulent que leurs actions soient en phase avec leurs valeurs et leurs engagements. C’est un travail de longue haleine pour nous car nous ne sommes pas toujours en phase au départ avec ces attentes. Cependant, tant que nous respectons et sommes fidèles à nos valeurs, nous pouvons convaincre et avoir de l’influence.
  • Les gens sont réticents au changement de peur de perdre ce qu’ils possèdent. Utiliser Sugar à partir d’un clé USB (« Sugar on a Stick », qui emprunte seulement un ordinateur sans rien modifier dedans) n’implique aucune changement irréversible tout en permettant de faire une nouvelle expérience pédagogique.
  • Les gens hésitent souvent lorsqu’il s’agit de prendre de grandes décisions. Ils sont souvent intimidés par les perspectives d’apprentissage de nouvelles choses (jusqu’à vraiment les faire). De plus es pertes immédiates peuvent décourager et faire perdre de vue les récompenses à long terme. Nous devons accorder une grande importance à ce moment crucial du démarrage en accompagnant ceux qui acceptent de prendre un tel risque.
  • Les gens ont besoin de se sentir écoutés et impliqués pour s’engager dans le changement. Nous avons une communauté qui tente d’accorder le plus grand soin à l’accueil des participants et à l’examen de leurs contributions. Ceci est une de nos grandes forces.

Est-ce que cela fonctionne ?

L’évaluation de projets éducatifs a toujours été difficile, en partie parce qu’il est difficile d’arriver à un concensus sur les mesures d’évaluation.

Il semble plus facile de prendre le problème par la négative où le consensus sur ce qu’il ne faut pas faire est plus facile à trouver. Ainsi Michael Trucano, qui blogue sur le portail éducation de la Banque mondiale, a publié un « top 10 » des pires pratiques de l’utilisation des nouvelles technologies dans l’éducation. Liste que je prends ici comme référence négative pour le projet Sugar avec comme exemples probants et prometteurs les deux déploiements d’envergure que sont le Paraguay Educa et le Plan Ceibal en Uruguay.

1. Parachuter du matériel dans les écoles et espérer qu’un miracle se produise.

C’est une critique souvent entendue pour le projet One Laptop per Child (un ordinateur portable par enfant), mais dans le faits, il y avait d’importants mecanismes d’aide et de mise en place en Uruguay et au Paraguay avant même que le matériel ne soit livré. En Uruguay, en plus du vaste support proposé directement par le gouvernement (incluant un programme de formation des professeurs, un centre d’appel, une vidéothèque des bonnes pratiques, etc.), deux initiatives communautaires au niveau national ont vu le jour : Ceibal Jam, qui fournit des logiciels et du contenu local aux enfants d’Uruguay, et Red de Apoyo al Plan Ceibal (RAP-Ceibal), qui assure un réseau d’aide pour les professeurs. Paraguay Educa a une équipe de conseillers qui travaille à temps plein dans les écoles, en aidant les professeurs. Et les éducateurs des deux pays participent régulièrement à des forums mondiaux.

2. Concevoir via l’OCDE des environnements d’apprentissage à implémenter partout.

Les « pays développés » proposent du contenu et quelques règles de bonnes pratiques, mais ce sont avant tout les équipes pédagogiques locales en Uruguay et au Paraguay qui échangent et conçoivent leurs propres matériels et programmes pour répondre à leurs besoins locaux (par exemple, un professeur de la campagne péruvienne a écrit un livre sur l’utilisation de Sugar en salle de classe qui est internationalement lu et reconnu par les autres professeurs).

3. Penser les contenus éducatifs après la mise en place du matériel.

En Uruguay et au Paraguay, c’est la pédagogie qui a guidé la vitesse de déploiement d’un projet vu avant tout comme une plateforme d’apprentissage (incluant les ordinateurs portables, la connectivité, les serveurs, la formation, la documentation, le support, l’assistance de la communauté, etc.).

4. Supposer que vous pouvez uniquement importer du contenu venu d’ailleurs.

Le mot clé ici est « uniquement ». L’Uruguay et le Paraguay profitent bien entendu des contenus créés ailleurs (comme par exemple ceux de la communauté Etoys) mais ils n’oublient de favoriser la production de ressources locales, qu’il s’agisse de nouveaux contenus ou de contenus modifiés à partir de ceux récupérés ailleurs.

5. Ne pas surveiller, ne pas évaluer.

À Plan Ceibal, ils ont un fonctionnement étendu pour surveiller l’état du réseau, des serveurs, et des ordinateurs portables lors du déploiement. Il y a beaucoup d’évaluations en cours du programe, aussi bien internes qu’externes. Paraguay Educa a été l’objet d’une évaluation externe par la Banque Interaméricaine de Développement (IDB Inter-American Development Bank).

6. Faire un gros pari sur une technologie qui n’a pas fait ses preuves.

C’est en particulier le cas lorsque l’on se base sur un unique distributeur et sur des standards fermés et/ou propriétaires. C’est alors une épée de Damoclès qui pèse sur l’avenir du projet. Les deux programmes mentionnés ci-dessous ont fait l’objet d’appels d’offre public et ont plusieurs distributeurs. Les deux utilisent abondamment des logiciels libres.

7. Ne pas être transparent sur le coût global de l’opération.

L’Uruguay a été assidue en publiant les chiffres de leur coût total de possession, maintenance et services du projet (chiffres, basés sur les coûts mesurés sur le terrain, qui se sont avérés plus bas que ce que certains avis pessimistes avaient prévu).

8. Négliger les problèmes d’équité.

En Uruguay ce sont avant tout les familles modestes qui sont ainsi équipées en informatique avec un accès Internet gratuit.

9. Ne pas former vos professeurs (ni votre directeur d’école).

Le plus gros investissement dans le programme au Paraguay a été la formation des professeurs. C’est sûrement la principale clé de la réussite du projet et nous veillons à ce que cette formation soit toujours plus efficace et adaptée aux réalités du terrain.

Trucano laisse le point numéro 10 comme exercice ouvert pour le lecteur. J’ajouterais :

10. Ne pas impliquer la communauté.

Dans les deux communautés uruguayenne et paraguayenne l’implication fait partie du projet par nature. Pour ce qui concerne Sugar, c’est un effort d’une communauté globale qui implique des centaines d’ingénieurs et des milliers de professeurs. Un résultat remarquable est le degré d’implication des parents dans les programmes.

Regarder vers le futur

Comme il est de mise avec chaque projet piloté par une communauté, il y a un débat permanent sur la vision de Sugar. Il peut y avoir des divergences d’opinion sur l’étendue de la mission des Sugar Labs (allant d’un point d’attention particulier sur les outils de collaboration à une vision plus large sur tout ce qui est nécessaire pour des déploiements réussis de l’OLPC). Mais tout le monde s’accord à dire qu’il y a une communauté Sugar de développeurs et d’apprenants pleine de vie et d’énergie et que les plateformes d’apprentissage basées sur des logiciels libres encouragent l’appropriation du savoir quel que soit le domaine que l’apprenant explore : musique, navigation sur internet, lecture, écriture, programmation, dessins, etc.

Carla Gomez Monroy, une pédagogue qui a participé à de nos nombreux déploiements, décrit Sugar comme « un environnement émergent et collaboratif, où la communauté identifie, code, utilise, innove, conçoit et re-conçoit ses propres outils » Les membres de la communauté d’apprentissage de Sugar s’engagent dans le débogage de leur créativité et des outils mis en place pour exprimer cette créativité. Ils investissent Sugar en tant que technologie mais aussi et surtout comme une culture de l’apprentissage passant par l’expression et la critique collective.

L’expérience Sugar Labs est « une participation collaborative pour apprendre à apprendre avec des outils qui nous correspondent ».

Walter Bender est le fondateur et le directeur exécutif de Sugar Labs, une fondation à but non lucratif. En 2006, Bender a co-fondé « One Laptop per Child », une organisation à but non lucratif avec Nicholas Negroponte et Seymour Papert.

Notes

[1] Crédit photo : Danishkanavin (Creative Commons By-Sa)

[2] Dans le développement logiciel, la métaphore de la rivière est utilisée pour décrire où les différentes activités et responsabilités se situent dans l’écosystème. L’« Amont » fait référence aux auteurs et mainteneurs du logiciel. L’« Aval » fait référence aux distributeurs et aux utilisateurs du logiciel.




6 questions à Karl Fogel, auteur de Produire du logiciel libre

Karl FogelÀ l’occasion de la sortie du framabook Produire du logiciel libre (dont notre secret espoir est qu’il suscite des vocations chez les jeunes et les moins jeunes), nous avons posé quelques questions à son auteur Karl Fogel.

Est-ce que la situation a évolué depuis la première version du livre, en particulier avec les nouvelles forges comme GitHub (qui repose entre autres la question du fork) ? Est-ce un problème d’héberger des logiciels libres sur des plateformes propriétaires ? Est-ce que l’informatique devrait être enseignée en tant que telle aujourd’hui à l’école ?

Autant de questions auxquelles il apporte de très intéressantes réponses.

Entretien avec Karl Fogel

L’interview en version originale anglaise sur le blog de Karl (intéressants commentaires inside)

(Traduction Framalang : Don Rico pour les questions et Olivier Rosseler pour les réponses)

La version française de POSS vient tout juste d’être publié et votre livre a été traduit, ou est en cours de traduction, dans d’autres langues. Que pensez-vous de ces adaptations de votre œuvre, rendues possibles par le choix de le placer sous licence libre ?

Je suis absolument ravi. Je n’y vois vraiment aucun inconvénient. Les traductions permettent une diffusion plus large du livre, et c’est exactement ce que je souhaite.

Je suis extrêmement reconnaissant envers les traducteurs.

Si vous deviez écrire une deuxième version de POSS aujourd’hui, qu’est-ce que vous changeriez ou ajouteriez ? Et d’ailleurs, est-ce qu’une deuxième version est prévue ?

Et bien, en fait, j’y apporte toujours des petites modifications, à mesure que les pratiques de l’open source évoluent. La version en ligne change constamment. On pourra peut-être la nommer officiellement « Version 2.0 » à un moment donné, mais au fond, c’est vraiment un processus continu.

Par exemple, il y a cinq ou six ans, presque tous les projets avaient leur propre infrastructure de développement. Chacun avait son serveur, son système de contrôle de versions, son système de suivi de bogues, un responsable de la liste de diffusion, un wiki peut-être, c’étaient les outils de développement.

Mais depuis, on a assisté à des regroupements. De nos jours, seuls les très gros et les très petits projets possèdent leur propre infrastructure. La majorité des projets choisissent des sites pré-conçus, comme GitHub, Google Code Hosting, SourceForce, Launchpad, etc. La plupart des développeurs open source se sont familiarisés avec ces environnements.

Et par conséquent, j’ai mis à jour la partie du livre traitant des infrastructures d’hébergement, pour enrichir la section « Les sites Web » et parler des sites comme ceux mentionnés ci-dessus, plutôt que de ré-inventer la roue à chaque projet. Les gens se rendent bien compte qu’administrer son propre hébergement requiert énormément de ressources, malgré les avantages que l’on peut en tirer, et que donc, externaliser cette tache est devenu presque une obligation si on veut avoir un peu de temps pour effectivement travailler sur le projet.

J’ai également mis le livre a jour pour parler des nouvelles versions des licences open source (comme la GNU General Public License 3, qui est sortie après que le livre ait été publié), et j’ai également revu mes recommandations vis à vis de certains logiciels, car les temps changent. Par exemple, Git est de bien meilleure qualité aujourd’hui qu’à l’époque où j’ai rédigé la toute première édition.

La manière de produire des logiciels libres n’a pas tellement changée en cinq ans. Mais de nouvelles forges sont apparues, sur un modèle un peu différent de SourceForge. Je pense à Google Code mais surtout à GitHub. GitHub serait un peu le « Facebook des forges open source », avec ses fonctions de réseau social, son édition à même le navigateur… Son slogan est « Fork me on GitHub ». La notion de fork semble ne plus être tout à fait la même qu’avant. Que pensez-vous de tout cela ?

En fait, je pense que la notion de fork n’a pas changé. La terminologie, peut-être, mais pas le concept.

Si je me penche sur les dynamiques des rouages des projets open source, je ne vois pas de differences fondamentales selon que le projet utilise une forge ou l’autre. GitHub propose un produit fantastique, mais ils ont aussi un marketing fantastique. Ils encouragent les projets à inviter leurs utilisateurs à « créer une fork sur GitHub », c’est à dire « créer une copie pour jouer un peu avec ».

Et même si en un sens la copie d’un projet hébergé sur Git peut techniquement s’appeler un « fork », en pratique ça n’en est pas un. Le concept de fork est avant tout politique, pas technique.

À l’origine, initier un fork signifiait élever la voix pour dire : « nous pensons que le projet ne prend pas la bonne direction, nous avons pris la décision d’en faire une copie pour le poursuivre dans la bonne direction, que tout ceux qui partagent ce point de vue se joignent à nous ». Et les deux projets se retrouvaient alors publiquement en concurrence, à l’attention des développeurs et des utilisateurs, parfois aussi pour des questions d’argent. Parfois l’un des deux l’emporte, parfois ils fusionnent pour ne former à nouveau qu’un seul projet. Mais quelle qu’en soit l’issue, c’est avant tout un processus politique : susciter des adhésions pour continuer ensemble le projet.

Cette dynamique est toujours d’actualité, elle se poursuit tous les jours. Qu’on parle de « fork » pour designer quelque chose de différent, pourquoi pas, mais ça ne change pas la réalité, on utilise juste un terme différent pour décrire la réalité.

GitHub a commencé à parler de « fork » pour dire « créer une copie à bidouiller ». Maintenant, c’est vrai qu’avec ce genre de copie il est facile de s’éloigner du projet originel pour re-fusionner plus tard, c’est l’une des caractéristiques de Git et de tous les systèmes de contrôle de version décentralisé. Et c’est vrai que s’éloigner pour re-fusionner est plus compliqué avec les systèmes de contrôle de version centralisé comme Subversion et CVS. Mais tous ces « forks » créés sur Git ne sont pas des forks au sens premier du terme. En général, lorsqu’un développeur se fait une copie sur Git et la modifie, c’est en espérant que ses changements seront fusionnés dans la copie « maîtresse ». Et quand je dis « maîtresse », ce n’est pas au sens technique, mais bien au sens politique : la copie maîtresse est celle que la plupart des utilisateurs suivent.

Je trouve que ces fonctionnalités de Git et de GitHub sont géniales, et j’aime bien les utiliser, mais il n’y a rien de révolutionnaire ici. Il y a peut-être une évolution de la terminologie, mais la vraie dynamique des projets open source ne varie pas : les développeurs fournissent de gros efforts pour que leurs modifications soient intégrées a la distribution principale, car ils ne veulent pas s’embarrasser avec une copie privée qu’ils auraient a entretenir. Git réduit la pénibilité liée à la maintenance de modifications indépendantes, mais pas encore suffisamment pour que cet effort soit négligeable. Les développeurs intelligents forment des communautés et tentent de conserver un code de base unifié, car c’est la meilleure chose à faire. Ça n’est pas près de changer.

En juin 2010, Benjamin Mako Hill remarque dans son article Free Software Needs Free Tools (traduit ici sur le Framablog) qu’héberger un projet libre sur une plateforme propriétaire pose problème. À votre avis, quelle est l’importance de ce problème ?

Et bien, je connais Mako Hill, je l’apprécie et j’éprouve beaucoup de respect pour lui. Mais je dois dire que je ne partage pas son avis sur ce point, et ce, pour plusieurs raisons.

D’abord, il faut être réaliste. On ne peut pas être un développeur logiciel sans outils propriétaires de nos jours. Réduire arbitrairement la notion de « plateforme » n’est qu’un artifice pour croire qu’on travaille dans un milieu entièrement libre. Par exemple, je peux héberger mon projet chez Launchpad, qui est un logiciel libre, mais est-ce que je peux vraiment écrire du code sans utiliser le moteur de recherche de Google, qui n’est pas libre ? Bien sur que non. Tous les bons programmeurs utilisent en continu Google, ou un autre moteur de recherche propriétaire. Il faut inclure ces recherches Google dans la « plateforme », impossible de se voiler la face.

Mais on peut pousser la réflexion plus loin :

Qu’attendez-vous de l’hébergeur de votre projet, quelles sont les libertés importantes ? Vous utilisez une plateforme et vous demandez aux autres de l’utiliser aussi pour collaborer avec vous, donc, idéalement, la plateforme devrait être libre.

Ainsi, si vous souhaitez y apporter des modifications, vous pouvez : si quelqu’un veut créer un fork de votre projet (au sens ancien, politique, du terme), ils peuvent reproduire l’infrastructure d’hébergement ailleurs, où ils la contrôleront, si nécessaire. Alors, en théorie tout cela est très bien et très joli, mais honnêtement, même si le code source de Google Code, par exemple, était libre, vous ne pourriez pas reproduire Google Code Hosting. Il vous manquerait encore le personnel, le service, les data center de Google… toute l’infrastructure qui n’a rien à voir avec le code source. Ça n’est pas réalistiquement faisable.

Vous pouvez forker le projet, mais en général vous ne pouvez pas reproduire son hébergement, cela demande trop de ressources. Et puisque ça n’est pas votre propre service, vous ne pouvez pas l’adapter a votre convenance ; ce sont les gens qui font tourner les serveurs matériels qui décident de quels ajustements sont acceptables ou pas. Donc dans la pratique, vous ne disposez pas de ces libertés.

(Certains services d’hébergement tentent d’octroyer autant de libertés que possible a leurs utilisateurs. Par exemple, le code de Launchpad est open source, et ils intègrent les correctifs de leurs membres. Mais l’entreprise qui héberge Launchpad doit quand même approuver chaque modification puisque ce sont eux qui font tourner les serveurs. Je crois que SourceForge veut tenter la même expérience, si l’on en croit l’annonce faite récemment à propos d’Allura.)

Alors, en fonction de tout cela, quelles sont les libertés possibles ?

Il vous reste la liberté de faire entrer et sortir vos données. En d’autres termes, le noeud du problème se situe au niveau de la possibilité qu’on les interface de programmations (API pour Application Programming Interfaces) de déplacer les données d’un service à l’autre, de manière fiable et automatique. Si je peux écrire un programme qui peut récupérer toutes les données de mon projet depuis une forge pour les transférer à une autre, c’est une liberté utile. Je ne suis pas pieds et poings liés. Ça n’est pas la seule liberté qui compte, on est même loin d’une liberté idéale. Mais c’est une liberté utile dont on dispose dans un monde où utiliser ses propres serveurs est devenu inabordable.

Ce n’est pas que cette conclusion m’enchante. Mais les choses sont ainsi. La période de « chasseur/cueilleur » dans l’open source est terminée, nous sommes entrés dans l’ère agricole et urbaine. Vous ne pouvez plus creuser vos propres sillons d’irrigation ou votre propre système d’évacuation des eaux usées. C’est trop compliqué. Mais, au moins, si vous n’êtes pas satisfait du service rendu par un hébergeur, vous pouvez déménager chez un autre plus efficace grâce a la portabilité des données.

Donc ça m’importe assez peu de savoir que la plateforme GitHub est propriétaire, par exemple. Evidemment, ça serait mieux si elle était entièrement open source, mais le fait qu’elle ne le soit pas n’est pas vraiment un énorme problème. Le premier critère auquel je fais attention lorsque j’évalue un service d’hébergement est la richesse de leurs APIs. Est-ce que je peux récupérer toutes mes données si besoin ? Si leurs APIs sont riches, c’est bon signe, ils feront leur travail pour maintenir un service de qualité, car c’est le critère qui leur permettra de conserver leurs utilisateurs.

En France, les élevés de collège et de lycée ne suivent pas de cours d’informatique. Pensez-vous que l’informatique devrait être une matière a part entière, et pas seulement un outil pour les autres matières ?

Evidemment. La compréhension des données et du calcul formel est très importante désormais. C’est une forme d’alphabétisme. Sans aller jusqu’à maîtriser la programmation, il faut savoir comment les données fonctionnent. Cela fait écho à une discussion récente où je me suis rendu compte du gouffre qui peut exister.

J’étais chez le docteur, pour faire quelques tests. L’un d’eux consistait à filmer les battements de mon cœur grâce aux ultra-sons et toute la séquence était enregistrée. C’était incroyable a voir ! Et donc, une fois terminé, je demande à l’accueil si je pouvais avoir les données. Pour être précis, j’ai demandé : « Est-ce que je pourrai avoir les données de l’echocardiogramme ? » L’assistante m’a répondu qu’ils pouvaient m’imprimer des images basse-résolution. J’ai alors répondu : « Merci, mais ce sont les données que je veux ». Elle m’a répondu que c’est bien ce qu’elle me proposait. Pour elle, le mot « données » n’avait pas la même signification précise que pour ceux qui ont appris ce que sont les données. Ma question impliquait évidemment que je voulais toutes les données qu’ils avaient enregistres. C’est bien ce que signifie « Toutes les données », non ? Il ne devrait pas y avoir de perte d’information : c’est une copie bit par bit. Mais cela ne lui parlait pas. Pour elle, les données, c’est « quelque chose qui ressemble a ce que j’ai demandé ». Je parlais d’information, d’informatique, elle me parlait de perception.

Je suis bien conscient que mon point de vue est radical, mais je trouve que c’est une forme d’illettrisme de nos jours. Vous devez savoir faire la différence entre les vraies informations et les fausses informations et vous devez comprendre l’énorme différence d’application qui existe entre les deux. Si je me rends chez un autre médecin, vous imaginez bien la différence que ça fait si je lui présente la vidéo complète sur clé USB par rapport à des copies basse résolution d’images fixes. L’une est utile, l’autre ne sert strictement à rien.

Les entreprises qui comprennent le mieux la valeur des données, de données nous concernant, ont de plus en plus de moyens d’utiliser ces données à leur avantage, mais pas nécessairement dans le vôtre. Les cours d’informatique sont une forme de défense contre ceci, une réponse immunitaire à un monde dans lequel la possession et la manipulation des données se transforme de plus en plus en pouvoir. Vous êtes mieux à même de comprendre comment les données peuvent être utilisées si vous les avez déjà manipulées vous-même.

Donc oui, je suis pour les cours d’informatique… mais pas seulement comme moyen de défense :-). C’est aussi une formidable occasion pour les écoles de réaliser quelque chose de collaboratif. L’enseignement se focalise trop souvent sur des apprentissages « individuels ». D’ailleurs, la coopération à l’école est souvent prohibée et on appelle cela de la triche. Or en cours d’informatique, la chose la plus naturelle est d’initier des projets open source ou de participer à des projets open source.

Bien sûr, tous les étudiants ne seront pas forcément doués ou hyper motivés pour cela, mais c’est la même choses dans toutes les autres matières. Je pense donc que les cours d’informatique sont une bonne opportunité d’exposer les élèves aux plaisirs du développement collaboratif. Ces cours devraient avoir un impact incroyable sur certains élèves, comme, par exemple, les cours de musique.

Une toute dernière question : quel conseil donneriez-vous au programmeur en herbe qui souhaite découvrir la communauté des logiciels libres et open source ? Essayez de répondre en une phrase, pas avec un livre entier 🙂

Trouvez un projet ouvert que vous appréciez (et, idéalement, que vous utilisez) et commencez à y participer ; vous ne le regretterez pas !