Traducthon, tradaction, tradusprint… Pour un Web ouvert !

Geektionnerd - Simon Gee Giraudot - CC by-saDepuis plus de deux ans, plus précisément depuis un samedi de mai 2009 à l’occasion d’une Ubuntu party, je participe aux traductions collaboratives dans la vraie vie initiées par Framalang, le groupe de traducteurs gonzos du Framaland. Et je ne suis pas le seul à y avoir pris goût.

Nous avons récidivé à Bordeaux pour traduire Un monde sans Copyright, chez Mozilla Europe à Paris pour le manuel Thunderbird et en juillet dernier à Strasbourg à l’occasion des RMLL, pour vous proposer aujourd’hui Pour un Web ouvert.

J’ai traduit, aidé à traduire, relu et révisé des dizaines de textes de toutes sortes. Participer aux traductions d’articles avec Framalang depuis un certain temps déjà n’a fait que multiplier les occasions de pratiquer le petit jeu de la traduction. Mais participer à un traducthon est une tout autre expérience dont voici certaines caractéristiques.

Des traducteurs en chair, en os et en vie

Antoine Turmel - CC by-saCommençons par le plus flagrant : un traducthon c’est une rencontre physique de personnes qui ne se connaissaient pas forcément, qui n’étaient que des pseudos en ligne ou bien que l’on ne retrouve qu’à quelques occasions. C’est donc d’abord un temps convivial, où l’on échange des propos par-dessus le travail en cours, des plaisanteries de mauvais goût qui déclenchent le fou-rire, des considérations trollesques qui partent en vrille, mais aussi des projets, des questions, des réponses, des contacts, de la bière l’eau ferrugémineuse, des pizzas et des petits plats du restau du quartier. En somme c’est une petite bande de gens qui deviennent copains (au moins), une bande dont la géométrie est variable d’une session à l’autre suivant la disponibilité de chacun ou son libre désir de participer.

Le milieu des traducteurs libristes n’est pas si vaste, mais il est relativement compartimenté, généralement en fonction des tâches et projets. Un traducthon représente la possibilité de mettre un peu de liant dans cet émiettement des activités. Je suis assez content par exemple de voir se rencontrer sur une traduction partagée des copains de frenchmozilla et ceux de framalang. Ah mais j’entends aKa dans l’oreillette… ah oui, d’accord il faut employer au moins une fois le mot « synergie ». C’est fait.

Inconvénient ? C’est sûr, on découvre les vrais gens : Julien mange toute la tablette de Milka, Adrien est trop bavard, Goofy est un vieux et Simon ne devrait pas se laisser pousser la barbe.

Un défi, un enjeu, un grand jeu

La concentration dans le temps (un week-end, trois ou quatre jours dans le meilleur des cas…), la concentration dans un lieu de travail (une salle de cours de faculté plus ou moins équipée, un hall de la Cité des sciences, les locaux de Mozilla Europe…) sont bien sûr associées au défi que l’on se donne de terminer au moins un premier jet tout simplement parce qu’après le traducthon chacun reprend sa vie quotidienne et d’autres activités, il faut donc terminer « à chaud ». L’ensemble pourrait créer un stress particulier, mais le plus souvent il ne s’agit que d’une tension positive parce que nous sommes un groupe. Chacun sait que tout près un autre participant est animé lui aussi du désir d’atteindre le but commun. La collaboration crée en réalité l’émulation, chacun met un point d’honneur à faire au moins aussi bien et autant que ses voisins.

L’enjeu d’un traducthon est particulier car il s’agit d’un ouvrage d’un volume important et pas seulement d’un article de presse électronique qui est une denrée périssable, comme nous en traduisons régulièrement pour le Framablog. Dans un traducthon, nous nous lançons le défi de traduire vite un texte qui devrait pouvoir être lu longtemps et dont le contenu lui aussi est important. Nous avons le sentiment d’avoir une sorte de responsabilité de publication, et la fierté de mettre à la disposition des lecteurs francophones un texte qui contribue à la diffusion du Libre, de sa philosophie et de ses problématiques.

Reste que la pratique a heureusement une dimension ludique : les outils en ligne que nous partageons pour traduire, que ce soit la plateforme Booki ou les framapads, même s’ils ne sont pas parfaits, offrent la souplesse et l’ergonomie qui les rendent finalement amusants à pratiquer. Tous ceux qui ont utilisé un etherpad pour la première fois ont d’abord joué avec les couleurs et l’écriture simultanée en temps réel. Même au cœur du rush des dernières heures d’un traducthon, lorsque nous convergeons vers les mêmes pages à traduire pour terminer dans les temps, c’est un plaisir de voir vibrionner les mots de couleurs diverses qui complètent un paragraphe, nettoient une coquille, reformulent une tournure, sous le regard de tous.

Traduction ouverte, esprit ouvert

N’oublions pas tous ceux qui « passent par là » et disent bonjour sous la forme d’un petit ou grand coup de pouce. Outre ceux qui ont décidé de réserver du temps et de l’énergie pour se retrouver in situ, nombreux sont les contributeurs et contributrices qui collaborent sur place ou en ligne. Beaucoup découvrent avec intérêt la relative facilité d’accès de la traduction, qui demande plus de qualité de maîtrise des deux langues (source et cible) que de compétences techniques. Quelques phrases, quelques pages sont autant de contributions tout à fait appréciées et l’occasion de faire connaissance, voire d’entrer plus avant dans le jeu de la traduction en rejoignant framalang.

Plus on participe, plus on participe. Il existe une sorte d’effet addictif aux sessions de traduction collective, de sorte que d’une fois à la suivante, on retrouve avec plaisir quelques habitués bien rodés et d’autres plus récemment impliqués qui y prennent goût et y reviennent. Participer à un traducthon, c’est appréhender de près et de façon tangible la puissance du facteur collaboratif : de l’adolescent enthousiaste à l’orthographe incertaine au retraité venu donner son temps libre pour le libre en passant par le développeur qui apporte une expertise technique, chacun peut donner et recevoir.

Enfin, et ce n’est pas là un détail, la pratique du traducthon apprend beaucoup à chacun. Certains découvrent qu’ils sont à la hauteur de la tâche alors qu’ils en doutaient (nulle contrainte de toutes façons, on choisit librement ce que l’on veut faire ou non), mais pour la plupart d’entre nous c’est aussi une leçon de partage du savoir : nos compétences sont complémentaires, l’aide mutuelle est une évidence et la modestie est nécessaire à tous. Voir par exemple son premier jet de traduction repris et coloré par un traducteur professionnel (Éric, reviens quand tu veux ?!), se faire expliquer une tournure de slang par un bilingue et chercher avec lui un équivalent français, découvrir une thèse audacieuse au détour d’un paragraphe de la version originale, voilà quelques exemples des moments enrichissants qui donnent aussi sa valeur à l’exercice.

Le mot, la chose

Une discussion trolloïde de basse intensité est engagée depuis le début sur le terme à employer pour désigner le processus de traduction collaborative dans la vraie vie en temps limité. Quelques observations pour briller en société :

  • C’est un peu l’exemple des booksprints initiés par Adam Hyde et la bande des Flossmanuals qui nous a inspiré l’idée de nos sessions, on pourrait donc adopter tradusprint, surtout dans la mesure où c’est une sorte de course de vitesse…
  • En revanche lorsque une traduction longue demande plusieurs jours et un travail de fond (ne perdons pas de vue le travail indispensable de révision post-traduction), il est assez cohérent de parler plutôt de traducthon.
  • Pour être plus consensuel et « couvrir » tous les types de session, le mot tradaction a été proposé à juste raison

Ci-dessous, reproduction de l’affichette amicalement créée par Simon « Gee » Giraudot pour annoncer le traducthon aux RMLL de Strasbourg. À noter, Simon a également contribué à la traduction d’un chapitre !

Geektionnerd - Simon Gee Giraudot - CC by-sa

Et le Web ouvert alors ?

C’était justement le fruit d’un booksprint à Berlin l’année dernière, le voilà maintenant en français. Ce qui est assez frappant pour aller droit à l’essentiel, c’est la rhétorique guerrière qui en est le fil rouge. Au fil des pages on prend conscience de l’enjeu et de l’affrontement déjà en cours dans lequel nous pouvons jouer un rôle décisif. C’est maintenant et peut-être dans les deux ans qui viennent pas plus qu’il y a urgence à ce que nos pratiques de la vie numérique maintiennent et étendent un Web ouvert.

Le Web n’est pas un amoncellement de données, ni un amoncellement d’utilisateurs, le Web ouvert existe quand l’utilisateur propose librement des données et s’en empare librement. Le Web n’a pas d’existence tant que ses utilisateurs ne s’en emparent pas.

Nous voulons un Web bidouillable, libre et ouvert. Nous voulons des navigateurs Web extensibles, d’une plasticité suffisante pour répondre à nos goûts et nos besoins. Nous voulons contrôler nos données et en rester maîtres, non les laisser en otages à des services dont la pérennité et les intentions sont suspectes. Nous ne voulons pas que notre vie numérique soit soumise ni contrôlée, filtrée, espionnée, censurée.

Le Web n’appartient pas aux fournisseurs d’accès, ni aux états, ni aux entreprises.

Le Web n’appartient à personne, parce que nous sommes le Web.

Au fait, si vous voulez parcourir Pour un Web ouvert, c’est… ici en HTML et là en PDF.

Antoine Turmel - CC by-sa

Bonus track

Une interview au cours du traducthon de Strasbourg pour la radio québécoise La Voix du Libre.

Crédit photos : Antoine Turmel et Antoine Turmel (Creative Commons By-sa)




Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




Parution du livre «  Libres Savoirs : les biens communs de la connaissance »

Libres Savoirs - C&F EditionsS’il fallait rechercher une unité, une cohérence, voire une politique, à la ligne éditoriale du Framablog, on pourrait bien les trouver du côté de la notion de « biens communs ». C’est pourquoi la parution récente du livre « Libres Savoirs, les biens communs de la connaissance » nous semble un évènement important.

Coordonné par l’association Vecam, ce livre offre un panorama des biens communs de l’immatériel, depuis les usages numériques jusqu’aux savoirs et connaissances scientifiques ou traditionnelles. Cette approche par les communs permet d’interroger les modèles politiques et les activités des mouvements sociaux. Réunissant trente auteurs, venus de tous les continents, il constitue une référence sur la théorie des biens communs, embrassant tout le spectre de ces nouveaux communs de l’immatériel. Et soulevant des questions nouvelles pour le 21ème siècle.

Nous en avons reproduit ci-dessous le texte introductif qui annonce bien la couleur et la suite de l’ouvrage. On trouvera toute l’information sur ce livre sur le site de C&F éditions.

Remarque : Nous sommes fiers d’avoir participé, indirectement et modestement, au projet. En effet le livre contient le fort intéressant article Les biens communs ou le nouvel espoir politique du XXIe siècle ? traduit par nos soins (Framalang) à même ce blog.

Les biens communs, une utopie pragmatique

URL d’origine du document

Valérie Peugeot – mai 2011 – Libres Savoirs, les biens communs de la connaissance
Licence Creative Commons By-Nc

information, savoir et culture sont chaque jour un peu plus le cœur battant de nos sociétés. Éléments premiers d’une part croissante de notre activité économique, ils contribuent à façonner nos manières de faire société. Nos apprentissages et nos modes cognitifs, notre engagement dans le travail rémunéré tout comme notre autonomie par rapport à ses institutions, nos relations aux autres, nos pudeurs et nos exhibitions, notre espace-temps, nos attentions et inattentions, l’accord de notre confiance et la construction de nos choix, nos déplacements, notre connaissance de soi, nos rapports aux objets, notre distance ou notre attachement à l’égard de la res publica… autant de champs bousculés, voire transformés par cette ébullition créative que l’on appelle société de la connaissance.

Si l’on admet que la connaissance et son vecteur, l’information, sont à l’ère informationnelle ce que l’énergie, les matières premières et la force de travail furent aux sociétés agricole et industrielle, alors les conditions de leur circulation, appropriation et partage deviennent cruciales. La période dans laquelle a émergé la société de l’information – années 1980-2000 – a coïncidé avec une époque de radicalité de la pensée économique libérale dans les pays occidentaux. Simple coïncidence ou facteur déterminant ? Sans rentrer dans ce débat, on observe aujourd’hui que les régimes juridiques qui régissent les conditions de propriété et de redistribution des ressources informationnelles et des connaissances sont totalement imprégnés de cette philosophie. Les logiques de marché y règnent en maître, et les régulations nationales et internationales poussent inlassablement dans le même sens, celui du renforcement des droits de propriété sur l’immatériel, au détriment de tout autre modèle plus équitable. La durée du droit d’auteur est périodiquement rallongée ; les brevets couvrent maintenant des domaines auparavant exempts de toutes formes de propriété, comme le vivant, les découvertes ou les mathématiques ; le domaine public devient un espace de déshérence et non de valorisation des œuvres de l’esprit; les exceptions aux droits de propriété prévues pour les enjeux de santé publique sont contournés par des traités bilatéraux ; des dispositifs techniques viennent verrouiller la circulation des créations ; les savoirs collectifs ancestraux sont confisqués par des acteurs privés… Dans un même temps, les conditions du renouvellement de ces ressources cognitives – l’enseignement, la formation devenue indispensable tout au long de la vie – sont renvoyées à des acteurs publics dont les moyens et l’autonomie ne cessent de baisser.

La connaissance ne peut être assimilée à du pétrole ou de l’acier. L’accaparement du savoir nourrit bien entendu un système inégalitaire, tout comme celui des terres ou des matières premières ; lorsque des entreprises de l’industrie informationnelles dégagent des bénéfices nets de plus de 15 % et nourrissent une finance internationale débridée, cela se fait bien entendu au détriment des populations exclues de cette redistribution. Mais la concentration des biens informationnels et cognitifs et les limites à leur circulation ont d’autres effets tout aussi fondamentaux : ils contribuent à long terme à un assèchement de la créativité et de la diversité culturelle en concentrant les investissements dans les mains de quelques acteurs homogènes ; ils dépouillent des populations de leurs savoirs historiques et ce faisant privent des communautés de leurs propres ressources, notamment en matière agricole ; ils privent des malades de l’accès aux soins au nom de la rentabilisation de l’invention… Culture, santé, survie alimentaire tout autant que justice sociale sont donc en jeu.

Face à cette logique, d’autres manières de penser la mise à disposition de la connaissance, l’accès au savoir et la rémunération des créateurs ont vu le jour. Dans le monde paysan, dans celui de la défense des malades, dans l’univers du logiciel, de la recherche scientifique ou de la création artistique, chez les peuples autochtones, dans le design numérique…, les communautés se sont multipliées pour affirmer et expérimenter la possibilité de placer des savoirs en régime de biens communs. Ces biens communs sont pensés tout à la fois comme un statut alternatif à la privatisation du savoir et comme un mode de gouvernance par une communauté dédiée. Accès aux savoirs, biens communs de la connaissance, deux facettes d’une même question, la première mettant l’accent sur l’obstacle à lever, la seconde sur les réponses apportées.

Éparses dans un premier temps, ces initiatives émanant de communautés spécifiques ont commencé depuis une demi-décennie à se décloisonner, à s’articuler. Ce livre, en rassemblant des auteurs relevant de ces différentes communautés, voudrait marquer ce temps très particulier où des acteurs souvent marginaux, en résistance, se rassemblent et prennent conscience qu’ils participent d’un même horizon de sens et construisent des alternatives à part entière.

Si ce temps est aujourd’hui possible, nous le devons à une série de facteurs.

En premier lieu, les communautés de biens communs du numérique qui ont vu le jour entre le début des années 80 et les années 2000 (depuis le logiciel libre jusqu’aux Creative Commons et aux revues scientifiques ouvertes en passant par les archives en accès libre…) ont montré leur robustesse et leur pertinence, gagnant toujours plus d’utilisateurs et/ou de contributeurs. Toutes n’occupent pas une place essentielle dans leur secteur (la recherche, la culture, l’éducation…). Mais leur appropriation et leur pertinence a minima questionnent les modèles économiques existants, à l’image des journaux scientifiques marchands qui se voient contraints, du fait de l’existence des revues en accès libre, de proposer un modèle de diffusion ouvert à côté du modèle traditionnel. Les actions de ces communautés interpellent les institutions les plus arc-boutées sur le renforcement des droits de propriété intellectuelle, et diffusent une culture de l’alternative dans la société, à l’image des mouvements de partage et de création construisant une « free culture ».

Autre virage essentiel, nous assistons ces dernières années à un rapprochement théorique entre les communautés de biens communs liées à des ressources naturelles et celles dédiées à des connaissances numérisables. Nous le devons notamment à la double impulsion d’Elinor Ostrom et de Charlotte Hess, marquée par la publication en 2007 de leur livre fondateur Understanding knowledge as a commons. Même si des différences substantielles existent entre ressources naturelles et connaissances, notamment leurs propriétés économiques, cette confrontation/collaboration théorique est absolument essentielle, ne serait-ce que parce qu’elle permet de réinscrire les communs de l’immatériel dans une histoire qui leur donne un surcroît de légitimité.

Enfin, l’apparition de nouvelles communautés autour du « open hardware » jette de façon très concrète un pont entre matériel et immatériel: en concevant et fabricant des objets mécaniques ou électroniques dont les modèles de conception sont rendus publics et réutilisables, de telle manière que n’importe qui peut décider de les fabriquer, les distribuer et les utiliser, ces acteurs de la production coopérative (P2P production) s’inspirent du logiciel libre pour en appliquer les règles au monde du tangible.

Articulation des mouvements engagés dans la défense de l’accès au savoir, décloisonnement intellectuel et opérationnel des biens communs de la connaissance et de ressources naturelles, montée en puissance des démarches et des produits ou services qui relèvent de cette dynamique : ces convergences donnent toute leur actualité et leur pertinence aux perspectives ouvertes par les communs.

Le dépassement du dualisme réducteur État/marché qui structure la pensée politique depuis plus d’un siècle et demi constitue l’une de ces perspectives et non la moindre. Alors que partis politiques, syndicats, mouvements militants se situent historiquement sur une ligne partant du tout État pour aboutir au tout marché en passant par tous les métissages possibles, les communs nous enseignent qu’il existe, non pas une troisième voie, mais une autre manière de penser et de faire en politique comme en économie ; une approche qui ne se situe ni contre le marché ni contre l’État mais à côté et s’articule avec ces deux pôles parfois de façon très poreuse. Lorsque l’État du Kérala en Inde édicte une législation pour accompagner les communautés (médecine ayurvédique, plantes médicinales villageoises) dans la protection de leurs savoirs traditionnels, gérés historiquement sous forme de communs, il évite de les placer dans un domaine public, où chacun, et donc prioritairement les mieux dotés, pourrait puiser sans retombées envers les communautés dépositaires. Il y a là articulation positive entre les communs et l’État. Lorsqu’un site web comme Flickr, propriété de Yahoo! laisse le choix à ses utilisateurs de placer leurs photos en droit d’auteur classique ou en contrat Creative Commons et ouvre un espace dédié aux œuvres du domaine public, nous sommes là aussi dans une coopération positive, cette fois-ci entre marché et communs. Cette mise en lumière d’une complémentarité remplaçant la concurrence entre les trois formes de régulation que sont le marché, l’État et les communs s’explique aussi par le pragmatisme de ces derniers. Les défenseurs des communs ne cherchent pas à construire une narration globale mais répondent à des besoins très concrets, souvent très locaux quand il s’agit de communs matériels, auxquels des communautés doivent faire face : assurer l’entretien d’une forêt, transmettre un savoir médicinal, trouver une ressource éducative librement accessible adaptée à un enseignement, créer des objets qui puissent être conçus et produits localement, renouveler la biodiversité cultivée par l’échange des semences… C’est souvent pour résoudre des objectifs personnels que des développeurs créent des logiciels libres, et c’est parce qu’ils souhaitent accéder aisément aux publications des autres que des chercheurs placent leurs résultats en accès libre. C’est l’agglutination progressive de ces expériences de gouvernance « en communs » qui fait promesse et non une idéologie in abstracto dont nul ne sait ni comment ni quand elle adviendra, ni ne peut deviner à l’avance les effets secondaires, dont on sait qu’ils peuvent être catastrophiques.

Ce processus d’agglutination est d’ailleurs l’un des enjeux majeurs auxquels doivent faire face les communs : comment les différentes expériences peuvent-elles se féconder au-delà d’une reconnaissance mutuelle ? Là encore, la dialectique entre les communs matériels et ceux de la connaissance constitue une expérience sociale enrichissante. Mais d’autres questions doivent être affrontées. Celle du passage à l’échelle n’est pas la moindre. Les communautés gérant des biens communs de ressources naturelles sont pour l’essentiel ancrées à l’échelle locale. Les communs sont-ils en capacité d’apporter des réponses à des enjeux planétaires comme la question climatique ? Ou de gérer des biens globaux comme les océans ou le spectre électromagnétique ?

La réaction du marché à la diffusion des biens communs, notamment numériques, peut également considérablement changer la donne. Car si les communs ne se construisent pas contre le marché, ce dernier peut néanmoins les percevoir comme une menace. Cette réaction défensive est particulièrement outrancière dans le champ des œuvres culturelles, où on a cherché à disqualifier les communs et les logiques de partage en les assimilant à du vol. Heureusement, dans d’autres secteurs industriels, la réaction n’est pas toujours aussi radicale, certains acteurs du marché ayant bien compris que le renouvellement de l’innovation passe par des modèles plus ouverts que ceux de la R&D traditionnelle. Ainsi voit-on se multiplier des projets de « recherche ouverte » rassemblant des acteurs hétérogènes – entreprises, collectivités locales, ONG… – et imaginant d’autres conditions de circulation des fruits de l’innovation.

Autre complexité pour les acteurs des communs, celle de l’appropriation de la démarche par des acteurs civiques et sociaux issus de la société pré-informationnelle. La philosophie des communs essaime relativement facilement dans le monde du numérique, en raison des qualités intrinsèques de l’immatériel. Les biens numériques sont dotés de propriétés qui précédemment n’appartenaient qu’aux biens publics : non excluabilité et non rivalité, reproduction illimitée pour un coût marginal proche de zéro. Cette situation ouvre par nature une brèche dans la pensée économique et politique et invite au renouvellement des théories. Plaquer des modèles historiques sur l’immatériel ne fonctionne tout bonnement pas. En revanche, pour les syndicats, les mouvements paysans ou les ONG qui œuvrent dans des secteurs économiques traditionnels, les alternatives proposées par les communs sont moins évidentes. Surtout dans la période que nous vivons, quand cohabitent une grille de lecture des rapports de production et des rapports sociaux venant de l’époque à prédominance industrielle, et l’analyse de la nouvelle situation du travail immatériel et de sa place dans l’économie en général. Cette nouvelle étape dans le décloisonnement est désormais essentielle.

Aujourd’hui les acteurs impliqués dans les différentes communautés de biens communs n’ont pas de prétention à être « le » mouvement mais à poursuivre des chemins originaux tout en intensifiant les échanges théoriques et pragmatiques tirés de leurs expériences, de leurs succès comme de leurs échecs, avec un cercle toujours plus large.

C’est à cette dynamique que cet ouvrage entend, modestement, contribuer. Ce sont les mouvements existant autour du partage de la connaissance, de son renouvellement collectif, évitant l’accaparement par quelques monopoles de l’ère informationnelle qui sont aujourd’hui porteurs de ce nouveau questionnement. En essayant de suivre les expériences de construction des communs menées dans les deux dernières décennies, dans leur diversité, comme dans leurs nombreuses similarités, nous voulons offrir au lecteur un éventail aussi large que possible des utopies pragmatiques et des mouvements concrets qui existent autour des communs de la connaissance. En espérant ainsi contribuer au nécessaire renouvellement de la pensée transformatrice dont le monde a tant besoin.




Nouveau Framabook : Un monde sans copyright… et sans monopole

Framabook - Un monde sans copyrightOn fait souvent, et à juste titre, le procès du droit d’auteur à l’ère de l’avènement du numérique. Une manière de résoudre le problème est alors de l’assouplir, en garantissant certains droits ou certaines libertés aux utilisateurs. Et cela donne par exemple la licence GNU/GPL pour les logiciels libres et les licences Creative Commons pour les œuvres culturelles.

Oui, mais allons encore plus loin et imaginons qu’il n’y ait plus du tout de droits d’auteur !

Tel est le sujet (et le débat) de notre dernier framabook « Un monde sans copyright… et sans monopole » Vous le trouverez en pdf et source sur notre site dédié, en lecture en ligne grâce à la Poule ou l’Œuf, et disponible à l’achat sur notre boutique EnVenteLibre.org au prix de 10 €.

Le droit d’auteur est-il un système archaïque ?

Dans cet ouvrage audacieux et polémique, les néerlandais Joost Smiers (professeur de science politique à l’École Supérieure des Arts d’Utrecht) et Marieke van Schijndel (directrice du Musée Catharijne Couvent à Utrecht) répondent par l’affirmative et élaborent un dossier à charge contre le droit d’auteur et les mécanismes économiques qui en découlent.

En formulant l’hypothèse qu’un monde sans copyright (le droit d’auteur et autre droit de propriété intellectuelle) est possible, les auteurs explorent méthodiquement les secteurs où le protectionnisme et les conglomérats culturels créent une distorsion du marché au détriment des artistes, de la création et de la diversité culturelle. Imaginez un terrain de jeu équitable où les artistes pourraient vivre de leur art et où la créativité et les connaissances pourraient intégrer (à nouveau ?) le domaine public pour être partagées… librement.

Nous en avons reproduit la préface et nos commentaires ci-dessous.

Le livre est sous licence Creative Commons Zero 1.0, également traduite pas nos soins, et se retrouve être particulièrement adaptée à la thèse de l’ouvrage.

Préface

Joost Smiers et Marieke van Schijndel – Amsterdam / Utrecht, janvier 2011

Si les systèmes de droits d’auteur et de copyright n’existaient pas, faudrait-il aujourd’hui les inventer ? Probablement pas : ils sont difficiles à maintenir, ont une tendance protectionniste et privilégient essentiellement les grandes stars. Ils suscitent des investissements massifs dans des productions qui dominent le paysage culturel, et, finalement, sont contraires à la démocratie.

Pourquoi cela ? Le droit de propriété intellectuelle nous interdit de modifier la création proposée par l’artiste – c’est-à-dire d’entamer un certain dialogue avec l’œuvre –, et nous condamne au statut de consommateur passif face à l’avalanche des expressions culturelles. Le droit d’auteur est un système archaïque.

Il est difficile de remettre en question la situation actuelle des marchés culturels, complètement dominés par de – trop – grandes entreprises. Certes, il s’agit d’un héritage du néolibéralisme, mais le prix que nous avons encore récemment payé pour les maux causés par cette idéologie confirme, à l’évidence, que nous devons la dépasser.

Nous devons nous sentir libres de nous demander s’il est juste que seuls quelques propriétaires de moyens de production, de distribution et de réception des expressions culturelles influencent et contrôlent substantiellement ce que nous voyons, entendons et lisons. Pour ce qui nous concerne, cela est inacceptable et contraire à l’idée démocratique de la multiplication des sources de créativité cinématographique, musicale, visuelle et théâtrale… en opposition avec les germes de notre imagination, ainsi qu’avec nos rêves, nos plaisirs, nos moments de tristesse, nos désirs érotiques, et tous les débats qui concernent notre vie. Nous devrions pouvoir choisir librement entre toutes les sources et expressions culturelles différentes.

L’objectif de notre ouvrage est d’aller vers un monde sans copyright …. et sans monopole, de construire des marchés culturels plus justes pour la plupart des artistes, et de donner un plus large choix aux citoyens en faveur de notre communication culturelle.

Quelques commentaires

Christophe Masutti, coordinateur de la collection Framabook – Benjamin Jean, administrateur de Framasoft et président de la SARD

Au travers des Framabooks et de multiples autres projets, Framasoft ne promeut pas seulement le logiciel libre, mais œuvre plus généralement pour l’avancement de la culture libre. Un mouvement qui étend les principes fondateurs du logiciel libre à tous les aspects de la création et de la culture, un partage organisé favorisé par le monde numérique dans lequel nous évoluons aujourd’hui.

À notre niveau, nous nous inscrivons ainsi dans une réflexion nouvelle sur les rapports entre la création et l’économie, suivant en cela le chemin ouvert par d’illustres penseurs avant nous. Le juriste Lawrence Lessig, par exemple, laissera sans nul doute une empreinte dans l’histoire pour avoir théorisé et généralisé la nouvelle conception du droit d’auteur amorcé par l’informaticien Richard Stallman[1], et joué un rôle déterminant dans le succès du « mouvement Creative Commons »[2]. En France, nous pouvons citer de même Philippe Aigrain et son regard éclairé sur la liberté des échanges, une liberté sublimée par Internet et qui conditionne la créativité, ou encore Antoine Moreau, artiste, chercheur et initiateur du mouvement Copyleft Attitude, qui avait compris en précurseur l’intérêt d’étendre le copyleft à toutes les sphères de la création. Plus récemment, de nombreux auteurs et artistes ont proposé de réelles alternatives (réfléchies et réalistes) au monde de la privation – considérée contraire à la créativité – dont l’HADOPI en France représente un archétype frappant[3].

Dans ce registre, la collection Framabook s’enrichit présentement d’un essai pour le moins audacieux et polémique. Le livre de Joost Smiers et Marieke van Schijndel s’inscrit en effet dans cette tradition des essais engagés, qui n’hésitent pas à remettre en cause les paradigmes les plus ancrés, pour nous exposer les méfaits du droit d’auteur et des mécanismes économiques qui en découlent. Dans le même temps, nos deux auteurs s’inscrivent dans une autre tradition, cette fois beaucoup plus ancienne, initiée par le philosophe Thomas More et sa description de l’île-république d’Utopia, porte ouverte à la modernité européenne, invitation à l’action et au changement social. Ainsi, non satisfait de remettre en question, ils proposent un réel système de substitution qui illustre et rend tangible leur proposition – bien loin de l’acception péjorative et anticréatrice qu’a le mot utopie aujourd’hui, serait-ce un signe des temps ?

À les écouter, cependant, Smiers et van Schijndel ne proposent pas exactement une utopie, mais un remède concret aux maux des artistes – précarité et instrumentalisation sont les qualificatifs qu’ils utilisent bien souvent – et de leur public – qui, tel un consommateur, ne dispose que d’un choix d’artistes limité et n’a pas son mot à dire. Ils s’arment ainsi d’audace et imaginent une rupture pleinement assumée avec le modèle actuel afin de faire table rase (abolition des lois relatives au droit d’auteur, mais aussi suppression des « conglomérats culturels » qui pervertissent le système par leur présence) et laisser la place à une nouvelle économie culturelle. Néanmoins, à la radicalité de la suppression (autoritaire) du copyright et des monopoles répond une analyse fine et détaillée des bases sur lesquelles une économie de la création égalitaire et rétributive pourrait se construire de manière durable.

Qu’elles convainquent ou non, ces réflexions méritent indubitablement d’être largement partagées. Le caractère incitatif du droit d’auteur (et autre droit de propriété intellectuelle) se voit mis à mal dans notre société où l’auteur ne peut vivre de son art tandis que celui qui exploite ses droits en tire un monopole grâce auquel il domine le marché. La doctrine juridique elle-même est réservée quant à l’évolution actuelle des différents droits de propriété intellectuelle et, même si elle reste généralement protectrice des auteurs et de leur propriété (bien qu’il soit précisé que cette dernière ne doive pas nécessairement être aussi absolue que celle du Code civil), elle devient très critique à l’encontre des exploitants, de leurs monopoles et lobbing[4]… précisant, s’il le fallait, qu’ « à tout vouloir protéger, on passe d’une logique de l’innovation à une logique de la rente »[5].

Nous sommes donc dans une période assez propice à la réflexion, voire à la contestation, et ce n’est pas une surprise si de nouveaux modèles incitatifs sont proposés afin de remplacer ou rééquilibrer le système actuel – telle la SARD[6] qui a pour objet de favoriser le libre accès à la culture, grâce à un système de financement par le don (modèle économique très en vogue sur Internet[7]).

Enfin, la question de la licence de cet ouvrage illustre parfaitement le décalage entre le droit positif et le système imaginé par les auteurs. Selon ces derniers, les licences libres et open source sont davantage focalisées sur les œuvres à partager que sur la réalité économique et sociale à laquelle se confrontent les artistes. Elles participeraient ainsi à la constitution d’une classe souvent dévalorisée et parfois démunie. Néanmoins, publier cet ouvrage sans mention de licence aurait eu pour conséquence d’empêcher sa diffusion, ce qui nous a conduit à proposer l’utilisation de la licence CC-Zero[8] – un beau clin d’œil puisque cette licence reconnaît les droits avant d’organiser leur abandon…

Pour toutes les raisons évoquées ci-dessus, Imagine there is no copyright… fut choisi pour une traduction collective lors des Rencontres Mondiales du Logiciel Libre tenues à Bordeaux en juillet 2010. Initié par l’équipe Framalang, ce « Traducthon » fut un essai réussi. Même si le résultat ne pouvait évidemment pas être publié tel quel sans quelques mesures éditoriales, on peut souligner la force avec laquelle il démontra qu’un projet collaboratif, sur une période très courte d’une semaine intensive, permet de produire un résultat de premier ordre en conjuguant les compétences et les motivations. Forts de cette nouvelle expérience, ne doutons pas que les prochains « Traducthons » contribueront eux aussi au partage des connaissances en produisant de nouveaux Framabooks.

Nous tenons à remercier ici Joost Smiers et Marieke van Schijndel pour leur disponibilité et leur écoute, ainsi que toute l’équipe Framalang, les relecteurs de l’équipe Framabook, la Poule ou l’Œuf et In Libro Veritas, toutes les personnes ayant contribué à ce projet et sans qui le partage ne serait qu’un vain mot.

-> La suite sur Framabook…

Notes

[1] Stallman, Williams et Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, 2010.

[2] Lessig, The Future of Ideas. The Fate of the Commons in a Connected World, 2002.

[3] À ce sujet, voir notamment : Nestel, Pasquini and collectif d’auteurs, La Bataille Hadopi, 2009.

[4] Gaudrat, Les modèles d’exploitation du droit d’auteur, 2009.

[5] Vivant, L’irrésistible ascension des propriétés intellectuelles ?, 1998, p. 441.

[6] La Société d’Acceptation et Répartition des Dons, fondée en 2009 (sard-info.org).

[7] Ce modèle se généralise avec des initiatives comme Yooook, Flattr, Ullule, Kachingle ou « J’aime l’info » (ce dernier étant dédié à la presse en ligne).

[8] Elle aussi traduite pour les besoins du livre (voir un article du Framablog à ce propos).




Nouveau Framabook : La BD Geektionnerd Rencontre du troisième type

GKND - Simon Gee Giraudot - CouvertureQue se passe-t-il lorsque l’on a une vie d’étudiant geek bien tranquille et que tout d’un coup une… fille débarque dans le club info ?

Une fille pas comme les autres, et pas seulement parce qu’elle est absente de Facebook « pour ne pas confier sa vie privée à des entreprises sans scrupules ».

Vous le saurez en achetant et/ou parcourant notre nouveau framabook « GKND tome 1 : Rencontre du troisième type », deuxième BD après les Geekscottes de Nojhan,

Vous y retrouverez un style et un humour familier puisque son auteur n’est autre que Simon « Gee » Giraudot, qui sévit depuis un certain déjà sur le Framablog tous les vendredis. Mais cette fois-ci c’est une histoire complète qu’il nous propose. Une histoire qui nous a tant et si bien plue qu’on a décidé qu’il méritait ô combien de venir s’ajouter à notre petite collection (qui avec le temps commence à ressembler à quelque chose soit dit en passant).

L’auteur précise : « J’ai commencé une histoire qui débutait par une journée type du personnage du Geek, sans trop savoir ce que j’allais en faire. Finalement, après avoir développé une intrigue, je me suis dit que cela pouvait faire une BD longue sympa, en gardant à l’esprit la formule un dessin = un gag (ou plus). Ainsi, la forme est assez spéciale, il n’y a que 3 cases par pages (ce qui est très peu par rapport à une BD classique) avec beaucoup de texte, et notamment un texte narratif qui suit les pensées du Geek à la première personne. »

Nous espérons que vous prendrez autant de plaisir que nous à sa lecture…

Une chouette idée de cadeau aussi, quel que soit le degré de geekitude de son destinataire. Le livre est disponible sur notre boutique EnVenteLibre au prix de 12 euros.

-> Découvrir Geektionnerd T.1 : Rencontre du troisième type sur le site Framabook.

GKND - Simon Gee Giraudot - Extrait

PS1 : Nous avons bien de la chance puisqu’il ne s’agit que d’un tome 1, le tome 2 est déjà là et fera lui aussi l’objet d’une publication.

PS2 : Simon sera présent aux RMLL de Strasbourg pour une séance de dédicaces sur le stand Framasoft.




6 questions à Karl Fogel, auteur de Produire du logiciel libre

Karl FogelÀ l’occasion de la sortie du framabook Produire du logiciel libre (dont notre secret espoir est qu’il suscite des vocations chez les jeunes et les moins jeunes), nous avons posé quelques questions à son auteur Karl Fogel.

Est-ce que la situation a évolué depuis la première version du livre, en particulier avec les nouvelles forges comme GitHub (qui repose entre autres la question du fork) ? Est-ce un problème d’héberger des logiciels libres sur des plateformes propriétaires ? Est-ce que l’informatique devrait être enseignée en tant que telle aujourd’hui à l’école ?

Autant de questions auxquelles il apporte de très intéressantes réponses.

Entretien avec Karl Fogel

L’interview en version originale anglaise sur le blog de Karl (intéressants commentaires inside)

(Traduction Framalang : Don Rico pour les questions et Olivier Rosseler pour les réponses)

La version française de POSS vient tout juste d’être publié et votre livre a été traduit, ou est en cours de traduction, dans d’autres langues. Que pensez-vous de ces adaptations de votre œuvre, rendues possibles par le choix de le placer sous licence libre ?

Je suis absolument ravi. Je n’y vois vraiment aucun inconvénient. Les traductions permettent une diffusion plus large du livre, et c’est exactement ce que je souhaite.

Je suis extrêmement reconnaissant envers les traducteurs.

Si vous deviez écrire une deuxième version de POSS aujourd’hui, qu’est-ce que vous changeriez ou ajouteriez ? Et d’ailleurs, est-ce qu’une deuxième version est prévue ?

Et bien, en fait, j’y apporte toujours des petites modifications, à mesure que les pratiques de l’open source évoluent. La version en ligne change constamment. On pourra peut-être la nommer officiellement « Version 2.0 » à un moment donné, mais au fond, c’est vraiment un processus continu.

Par exemple, il y a cinq ou six ans, presque tous les projets avaient leur propre infrastructure de développement. Chacun avait son serveur, son système de contrôle de versions, son système de suivi de bogues, un responsable de la liste de diffusion, un wiki peut-être, c’étaient les outils de développement.

Mais depuis, on a assisté à des regroupements. De nos jours, seuls les très gros et les très petits projets possèdent leur propre infrastructure. La majorité des projets choisissent des sites pré-conçus, comme GitHub, Google Code Hosting, SourceForce, Launchpad, etc. La plupart des développeurs open source se sont familiarisés avec ces environnements.

Et par conséquent, j’ai mis à jour la partie du livre traitant des infrastructures d’hébergement, pour enrichir la section « Les sites Web » et parler des sites comme ceux mentionnés ci-dessus, plutôt que de ré-inventer la roue à chaque projet. Les gens se rendent bien compte qu’administrer son propre hébergement requiert énormément de ressources, malgré les avantages que l’on peut en tirer, et que donc, externaliser cette tache est devenu presque une obligation si on veut avoir un peu de temps pour effectivement travailler sur le projet.

J’ai également mis le livre a jour pour parler des nouvelles versions des licences open source (comme la GNU General Public License 3, qui est sortie après que le livre ait été publié), et j’ai également revu mes recommandations vis à vis de certains logiciels, car les temps changent. Par exemple, Git est de bien meilleure qualité aujourd’hui qu’à l’époque où j’ai rédigé la toute première édition.

La manière de produire des logiciels libres n’a pas tellement changée en cinq ans. Mais de nouvelles forges sont apparues, sur un modèle un peu différent de SourceForge. Je pense à Google Code mais surtout à GitHub. GitHub serait un peu le « Facebook des forges open source », avec ses fonctions de réseau social, son édition à même le navigateur… Son slogan est « Fork me on GitHub ». La notion de fork semble ne plus être tout à fait la même qu’avant. Que pensez-vous de tout cela ?

En fait, je pense que la notion de fork n’a pas changé. La terminologie, peut-être, mais pas le concept.

Si je me penche sur les dynamiques des rouages des projets open source, je ne vois pas de differences fondamentales selon que le projet utilise une forge ou l’autre. GitHub propose un produit fantastique, mais ils ont aussi un marketing fantastique. Ils encouragent les projets à inviter leurs utilisateurs à « créer une fork sur GitHub », c’est à dire « créer une copie pour jouer un peu avec ».

Et même si en un sens la copie d’un projet hébergé sur Git peut techniquement s’appeler un « fork », en pratique ça n’en est pas un. Le concept de fork est avant tout politique, pas technique.

À l’origine, initier un fork signifiait élever la voix pour dire : « nous pensons que le projet ne prend pas la bonne direction, nous avons pris la décision d’en faire une copie pour le poursuivre dans la bonne direction, que tout ceux qui partagent ce point de vue se joignent à nous ». Et les deux projets se retrouvaient alors publiquement en concurrence, à l’attention des développeurs et des utilisateurs, parfois aussi pour des questions d’argent. Parfois l’un des deux l’emporte, parfois ils fusionnent pour ne former à nouveau qu’un seul projet. Mais quelle qu’en soit l’issue, c’est avant tout un processus politique : susciter des adhésions pour continuer ensemble le projet.

Cette dynamique est toujours d’actualité, elle se poursuit tous les jours. Qu’on parle de « fork » pour designer quelque chose de différent, pourquoi pas, mais ça ne change pas la réalité, on utilise juste un terme différent pour décrire la réalité.

GitHub a commencé à parler de « fork » pour dire « créer une copie à bidouiller ». Maintenant, c’est vrai qu’avec ce genre de copie il est facile de s’éloigner du projet originel pour re-fusionner plus tard, c’est l’une des caractéristiques de Git et de tous les systèmes de contrôle de version décentralisé. Et c’est vrai que s’éloigner pour re-fusionner est plus compliqué avec les systèmes de contrôle de version centralisé comme Subversion et CVS. Mais tous ces « forks » créés sur Git ne sont pas des forks au sens premier du terme. En général, lorsqu’un développeur se fait une copie sur Git et la modifie, c’est en espérant que ses changements seront fusionnés dans la copie « maîtresse ». Et quand je dis « maîtresse », ce n’est pas au sens technique, mais bien au sens politique : la copie maîtresse est celle que la plupart des utilisateurs suivent.

Je trouve que ces fonctionnalités de Git et de GitHub sont géniales, et j’aime bien les utiliser, mais il n’y a rien de révolutionnaire ici. Il y a peut-être une évolution de la terminologie, mais la vraie dynamique des projets open source ne varie pas : les développeurs fournissent de gros efforts pour que leurs modifications soient intégrées a la distribution principale, car ils ne veulent pas s’embarrasser avec une copie privée qu’ils auraient a entretenir. Git réduit la pénibilité liée à la maintenance de modifications indépendantes, mais pas encore suffisamment pour que cet effort soit négligeable. Les développeurs intelligents forment des communautés et tentent de conserver un code de base unifié, car c’est la meilleure chose à faire. Ça n’est pas près de changer.

En juin 2010, Benjamin Mako Hill remarque dans son article Free Software Needs Free Tools (traduit ici sur le Framablog) qu’héberger un projet libre sur une plateforme propriétaire pose problème. À votre avis, quelle est l’importance de ce problème ?

Et bien, je connais Mako Hill, je l’apprécie et j’éprouve beaucoup de respect pour lui. Mais je dois dire que je ne partage pas son avis sur ce point, et ce, pour plusieurs raisons.

D’abord, il faut être réaliste. On ne peut pas être un développeur logiciel sans outils propriétaires de nos jours. Réduire arbitrairement la notion de « plateforme » n’est qu’un artifice pour croire qu’on travaille dans un milieu entièrement libre. Par exemple, je peux héberger mon projet chez Launchpad, qui est un logiciel libre, mais est-ce que je peux vraiment écrire du code sans utiliser le moteur de recherche de Google, qui n’est pas libre ? Bien sur que non. Tous les bons programmeurs utilisent en continu Google, ou un autre moteur de recherche propriétaire. Il faut inclure ces recherches Google dans la « plateforme », impossible de se voiler la face.

Mais on peut pousser la réflexion plus loin :

Qu’attendez-vous de l’hébergeur de votre projet, quelles sont les libertés importantes ? Vous utilisez une plateforme et vous demandez aux autres de l’utiliser aussi pour collaborer avec vous, donc, idéalement, la plateforme devrait être libre.

Ainsi, si vous souhaitez y apporter des modifications, vous pouvez : si quelqu’un veut créer un fork de votre projet (au sens ancien, politique, du terme), ils peuvent reproduire l’infrastructure d’hébergement ailleurs, où ils la contrôleront, si nécessaire. Alors, en théorie tout cela est très bien et très joli, mais honnêtement, même si le code source de Google Code, par exemple, était libre, vous ne pourriez pas reproduire Google Code Hosting. Il vous manquerait encore le personnel, le service, les data center de Google… toute l’infrastructure qui n’a rien à voir avec le code source. Ça n’est pas réalistiquement faisable.

Vous pouvez forker le projet, mais en général vous ne pouvez pas reproduire son hébergement, cela demande trop de ressources. Et puisque ça n’est pas votre propre service, vous ne pouvez pas l’adapter a votre convenance ; ce sont les gens qui font tourner les serveurs matériels qui décident de quels ajustements sont acceptables ou pas. Donc dans la pratique, vous ne disposez pas de ces libertés.

(Certains services d’hébergement tentent d’octroyer autant de libertés que possible a leurs utilisateurs. Par exemple, le code de Launchpad est open source, et ils intègrent les correctifs de leurs membres. Mais l’entreprise qui héberge Launchpad doit quand même approuver chaque modification puisque ce sont eux qui font tourner les serveurs. Je crois que SourceForge veut tenter la même expérience, si l’on en croit l’annonce faite récemment à propos d’Allura.)

Alors, en fonction de tout cela, quelles sont les libertés possibles ?

Il vous reste la liberté de faire entrer et sortir vos données. En d’autres termes, le noeud du problème se situe au niveau de la possibilité qu’on les interface de programmations (API pour Application Programming Interfaces) de déplacer les données d’un service à l’autre, de manière fiable et automatique. Si je peux écrire un programme qui peut récupérer toutes les données de mon projet depuis une forge pour les transférer à une autre, c’est une liberté utile. Je ne suis pas pieds et poings liés. Ça n’est pas la seule liberté qui compte, on est même loin d’une liberté idéale. Mais c’est une liberté utile dont on dispose dans un monde où utiliser ses propres serveurs est devenu inabordable.

Ce n’est pas que cette conclusion m’enchante. Mais les choses sont ainsi. La période de « chasseur/cueilleur » dans l’open source est terminée, nous sommes entrés dans l’ère agricole et urbaine. Vous ne pouvez plus creuser vos propres sillons d’irrigation ou votre propre système d’évacuation des eaux usées. C’est trop compliqué. Mais, au moins, si vous n’êtes pas satisfait du service rendu par un hébergeur, vous pouvez déménager chez un autre plus efficace grâce a la portabilité des données.

Donc ça m’importe assez peu de savoir que la plateforme GitHub est propriétaire, par exemple. Evidemment, ça serait mieux si elle était entièrement open source, mais le fait qu’elle ne le soit pas n’est pas vraiment un énorme problème. Le premier critère auquel je fais attention lorsque j’évalue un service d’hébergement est la richesse de leurs APIs. Est-ce que je peux récupérer toutes mes données si besoin ? Si leurs APIs sont riches, c’est bon signe, ils feront leur travail pour maintenir un service de qualité, car c’est le critère qui leur permettra de conserver leurs utilisateurs.

En France, les élevés de collège et de lycée ne suivent pas de cours d’informatique. Pensez-vous que l’informatique devrait être une matière a part entière, et pas seulement un outil pour les autres matières ?

Evidemment. La compréhension des données et du calcul formel est très importante désormais. C’est une forme d’alphabétisme. Sans aller jusqu’à maîtriser la programmation, il faut savoir comment les données fonctionnent. Cela fait écho à une discussion récente où je me suis rendu compte du gouffre qui peut exister.

J’étais chez le docteur, pour faire quelques tests. L’un d’eux consistait à filmer les battements de mon cœur grâce aux ultra-sons et toute la séquence était enregistrée. C’était incroyable a voir ! Et donc, une fois terminé, je demande à l’accueil si je pouvais avoir les données. Pour être précis, j’ai demandé : « Est-ce que je pourrai avoir les données de l’echocardiogramme ? » L’assistante m’a répondu qu’ils pouvaient m’imprimer des images basse-résolution. J’ai alors répondu : « Merci, mais ce sont les données que je veux ». Elle m’a répondu que c’est bien ce qu’elle me proposait. Pour elle, le mot « données » n’avait pas la même signification précise que pour ceux qui ont appris ce que sont les données. Ma question impliquait évidemment que je voulais toutes les données qu’ils avaient enregistres. C’est bien ce que signifie « Toutes les données », non ? Il ne devrait pas y avoir de perte d’information : c’est une copie bit par bit. Mais cela ne lui parlait pas. Pour elle, les données, c’est « quelque chose qui ressemble a ce que j’ai demandé ». Je parlais d’information, d’informatique, elle me parlait de perception.

Je suis bien conscient que mon point de vue est radical, mais je trouve que c’est une forme d’illettrisme de nos jours. Vous devez savoir faire la différence entre les vraies informations et les fausses informations et vous devez comprendre l’énorme différence d’application qui existe entre les deux. Si je me rends chez un autre médecin, vous imaginez bien la différence que ça fait si je lui présente la vidéo complète sur clé USB par rapport à des copies basse résolution d’images fixes. L’une est utile, l’autre ne sert strictement à rien.

Les entreprises qui comprennent le mieux la valeur des données, de données nous concernant, ont de plus en plus de moyens d’utiliser ces données à leur avantage, mais pas nécessairement dans le vôtre. Les cours d’informatique sont une forme de défense contre ceci, une réponse immunitaire à un monde dans lequel la possession et la manipulation des données se transforme de plus en plus en pouvoir. Vous êtes mieux à même de comprendre comment les données peuvent être utilisées si vous les avez déjà manipulées vous-même.

Donc oui, je suis pour les cours d’informatique… mais pas seulement comme moyen de défense :-). C’est aussi une formidable occasion pour les écoles de réaliser quelque chose de collaboratif. L’enseignement se focalise trop souvent sur des apprentissages « individuels ». D’ailleurs, la coopération à l’école est souvent prohibée et on appelle cela de la triche. Or en cours d’informatique, la chose la plus naturelle est d’initier des projets open source ou de participer à des projets open source.

Bien sûr, tous les étudiants ne seront pas forcément doués ou hyper motivés pour cela, mais c’est la même choses dans toutes les autres matières. Je pense donc que les cours d’informatique sont une bonne opportunité d’exposer les élèves aux plaisirs du développement collaboratif. Ces cours devraient avoir un impact incroyable sur certains élèves, comme, par exemple, les cours de musique.

Une toute dernière question : quel conseil donneriez-vous au programmeur en herbe qui souhaite découvrir la communauté des logiciels libres et open source ? Essayez de répondre en une phrase, pas avec un livre entier 🙂

Trouvez un projet ouvert que vous appréciez (et, idéalement, que vous utilisez) et commencez à y participer ; vous ne le regretterez pas !




Nouveau Framabook : AlternC Comme si vous y étiez

AlternC Comme si vous y étiez - FramabookOuvrons ce billet par une citation clin d”œil de Jean-Marc Manach qui résume bien le nouveau livre libre framabook que nous sommes fiers de vous présenter aujourd’hui : « Offrez un nom de domaine à un homme et vous le nourrirez pour un jour. Apprenez-lui à l’administrer et vous le nourrirez pour toute la vie. »

C’est en effet ce que propose depuis longtemps déjà le projet libre et associatif AlternC, dont la démarche mais surtout l’existence bien réelle constituent un formidable rempart aux attaques actuelles contre les fondamentaux du Net.

AlternC c’est avant tout une suite logicielle permettant de gérer un ou plusieurs serveurs d’hébergement de site web, email, listes de discussions et autres services Internet.

Que vous soyez simple blogueur, hébergeur associatif ou industriel, professionel du web en agence, ou toute autre structure juridique aux facettes multiples (mairies, grande entreprise, fédération …), AlternC vous permet de gérer facilement les comptes d’hébergement de plusieurs entités, à travers une interface web simple, intuitive et multilingue. Les spécialistes du réseau et administrateurs système profitent aussi d’AlternC pour simplifier et industrialiser leurs processus de gestion d’infrastructure, et pouvoir ainsi confier à leur client la gestion des éléments simples de leur hébergement.

Mais AlternC c’est également se plonger dans l’histoire du Web francophone en général et du Web francophone libre en particulier, puisque le projet est directement issu du mythique service altern.org de Valentin Lacambre.

AlternC c’est enfin un projet politique, une informatique résolument tournée vers les logiciels libres, une volonté d’aider chacun à devenir son propre hébergeur, s’il le souhaite, dans le respect d’Internet et de ce qui fut son fondement toujours menacé : la liberté.

Rédigé, aussi bien à l’occasion des dix ans du projet que de la sortie imminente de la version 1.0 d’AlternC, par ces deux pionniers du libre que sont les hyperactifs Chantal Bernard-Putz et Benjamin Sonntag, cet ouvrage (illustré en couleur de 234 pages) propose un guide pas à pas du logiciel, de la gestion des comptes à l’installation (côté client) et l’administration de la plateforme (côté serveur).

Il a été entièrement réalisé sous LibreOffice. Il est édité par InLibroVeritas sous licence Creative Commons By-Sa. Les auteurs ont gracieusement décidé de céder l’intégralité de leurs droits d’auteur à La Quadrature du Net.

Le guide est encadré par deux articles de Laurent Chemla et Sébastien Canevet. C’est ce dernier que nous avons choisi de reproduire ci-dessous.

Les auteurs vous donnent rendez-vous le 28 mars prochain à 19h à La Cantine (Paris) pour une présentation du livre qui coïncidera avec la sortie de la version 1.0 d’AlternC ! C’est aussi à ce moment-là que symboliquement les sources du livre seront libérées.

-> Découvrir, télécharger et/ou acheter AlternC Comme si vous y étiez sur le site Framabook.

La neutralité du Net ne s’use que si on ne s’en sert pas !

Sébastien Canevet – décembre 2010

L’un des principes fondateurs d’internet conduit à traiter également toute information qui circule sur le réseau, indépendamment de sa source, de sa destination ou de son contenu. C’est la « neutralité du net ».

Lors de la création d’internet, la rusticité des outils alors mis en oeuvre ne permettait pas ce genre de discrimination. Aujourd’hui, le perfectionnement des équipements techniques rend possible une gestion discriminatoire du trafic. Cette idée malvenue ne manque pourtant pas de partisans. Les arguments pour la combattre sont plutôt nombreux, de la démocratie à la promotion de l’innovation et passant l’économie du développement des infrastructures.

Loin des débats théoriques sur ces principes fondamentaux, certains acteurs de l’internet ont choisi de participer à ce débat d’une autre façon, en rendant rapidement et facilement accessible la mise en place d’un hébergeur indépendant. Tel est le projet AlternC.

Alors que l’hébergement d’un site web était hors de portée des acteurs autres que les opérateurs institutionnels, publics ou privés, la mise à disposition de la suite logicielle AlternC permet depuis dix ans de gérer aisément un hébergeur mutualisé, assurant ainsi une indépendance technique à ceux qui souhaitent consacrer un minium de temps et quelques moyens (limités) à cette tâche.

Projet libre, il était logique qu’AlternC fut également un logiciel libre. A l’aube du projet, seuls les informaticiens (ou presque) comprenaient les enjeux de ce choix. C’est donc en connaissance de cause que les promoteurs du projet choisirent un logiciel libre (l’altern de Valentin Lacambre) plutôt que son homologue propriétaire, pour le faire évoluer.

C’est ainsi que, prouvant le mouvement en marchant, et mettant en oeuvre la neutralité du net bien avant que la problématique n’héberge au sein du public averti[1], AlternC permet la mise en oeuvre de l’hébergement de sites internet librement, et ceci aux quatre sens du mot libre lorsqu’il est accolé à nom logiciel.

  • Première des quatre libertés, l‘« exécution du programme », ou plus largement l’utilisation d’AlternC est libre, en ce sens que vous pouvez utiliser ces logiciels pour n’importe quel usage, commercial ou pas, et ceci sans aucune limitation d’aucune sorte. Il est d’ailleurs important pour les logiciels libres en général que leur utilisation dans la sphère commerciale et industrielle soit la plus large possible, ce ci afin d’éviter qu’ils ne soient isolés dans un milieu étroit….
  • La liberté d’étude est la seconde liberté. Alors que leurs homologues « propriétaires » sont enfermés dans un carcan juridique étroit et compliqué[2], l’étude d’AlternC n’est soumise à aucune contrainte. C’est ainsi que l’on peut librement étudier le fonctionnement de ces logiciels, quel que soit l’objectif de cette étude. La libre disposition du code source facilite cette étude.
  • La distribution de copie des logiciels AlternC est elle aussi possible librement, quelles que soient les conditions (gratuité ou pas…) de cette distribution. Une activité économique est ainsi parfaitement imaginable.
  • Enfin, il est possible (et même souhaitable) qu’AlternC soit l’objet d’améliorations. Cette suite logicielle est une oeuvre « in progress », en ce sens que, au sein de la communauté AlternC ou en dehors, toute personne ayant la compétence et la volonté de modifier ces programmes, peut le faire sans contrainte.

J’aime à répéter que ce que l’on ne trouve pas sur internet n’existe pas, tant le réseau est aujourd’hui d’une richesse inouïe.

Bien au delà des seuls usages commerciaux, dans lesquels l’utilisateur n’est envisagé que comme un consommateur, qui n’utiliserait le réseau que pour dépenser son argent, se contentant pour le reste de demeurer tranquillement sous perfusion télévisuelle, l’usager d’AlternC est un véritable acteur du réseau. C’est pour cela que cet ouvrage a été écrit.

-> Découvrir, télécharger et/ou acheter AlternC Comme si vous y étiez sur le site Framabook.

Notes

[1] L’article fondateur de Tim Wu, « Network Neutrality, Broadband Discrimination » date de 2003, mais la prise de conscience collective de l’importance de cette neutralité est bien plus tardive.

[2] En effet, l’étude et la décompilation d’un logiciel non libre n’est possible que dans une mesure très limitée, à seule fin d’assurer l’interopérabilité, et encore à condition que les informations nécessaires ne soient pas déjà rendues publiques.




Combien de grands écrivains bloqués à la frontière par le droit d’auteur ?

Shandi-Lee Cox - CC byPourquoi certains livres ne sont-ils pas traduits alors que tout porte à croire qu’ils le méritent ?

A contrario pourquoi d’autres livres connaissent de nombreuses traductions malgré le caractère très confidentiel de leur sujet et donc de leur audience potentielle ?

Pour les uns comme pour les autres à cause du droit d’auteur.

Un droit d’auteur qui selon le cas (et le choix) peut décourager ou encourager, nous dit ici Karl Fogel, qui est bien placé pour en parler car ses deux livres, le premier sous licence GNU General Public License et le second sous licence Creative Commons By, ont connu spontanément de nombreuses traductions[1].

Et nous aussi à Framasoft, nous sommes bien placés pour en parler, car lorsque nous décidons d’entamer un long projet de traduction via notre groupe de travail Framalang, la condition sine qua non est que la licence de l’ouvrage original nous y autorise explicitement. Un long projet comme notre dernier framabook Produire du logiciel libre de… Karl Fogel justement !

Le conte des deux auteurs : pourquoi l’un est traduit et l’autre pas

A Tale of Two Authors: Why Translations Happen, or Don’t.

Karl Fogel – 21 février 2011 – QuestionCopyright.org
(Traduction Framalang : Brandelune, Goofy et Penguin)

Pourquoi certains livres ne sont-ils pas traduits ?

Vous penserez peut-être qu’il est difficile de trouver des traducteurs disposés, ou que les compétences nécessaires sont rares, mais je vous propose deux études qui fournissent une autre explication.

La raison principale d’un texte non traduit vient tout simplement du fait qu’on nous interdit de le traduire. Lorsque les restrictions dues aux droits d’auteur ne les entravent pas, les traductions fleurissent.

Si vous êtes sceptique, lisez plutôt la suite. Voici l’histoire de deux auteurs, l’un dont les livres peuvent être traduits librement par n’importe qui, l’autre qu’on ne peut pas traduire. Nous allons même tricher un peu en disant que celui dont les livres sont ouverts à la traduction est un auteur mineur (un de ceux dont les œuvres, pour être parfaitement honnête, ne vont pas changer la face du monde). Tandis que certains des ouvrages de l’autre sont considérés comme des chefs-d’œuvre dans leur langue d’origine, au point que l’on peut trouver des citations d’éminents universitaires mentionnant l’absence de traduction comme « un des plus grands scandales de notre époque ».

Le premier auteur, c’est moi. J’ai écrit deux livres, tous deux sous licence libre, aucun n’a la moindre importance historique même si j’en suis fier et ai été content de les écrire. Le premier, publié en 1999, était un manuel semi-technique expliquant comment utiliser certains logiciels de collaboration. Bien que son public soit limité et que j’aie mis en ligne une version dans un format un peu lourd, des traductions bénévoles ont très vite été proposées, et l’une d’elles au moins (en allemand) a été achevée. D’autres traductions ont peut-être abouti, je ne sais pas (le livre étant déjà ancien et les traductions m’étant incompréhensibles, je n’ai pas fait l’effort d’en savoir plus).

Remarquez que je ne parle ici que de traductions faites par des bénévoles, celles qu’ils entreprennent juste parce qu’ils en ont envie, sans demander au préalable de permission à quiconque (il y avait aussi une traduction en chinois achevée et dont j’ai une version papier publiée, mais je ne la considère pas dans ma démonstration car elle est passée par les canaux de publication contrôlés par l’éditeur).

Mon livre suivant, publié à l’origine en 2005, ne visait également qu’un lectorat potentiel limité : il traite de la gestion de projets collaboratifs open source — il n’était pas exactement destiné à devenir un best-seller. Mais avec le soutien de mon aimable éditeur, O’Reilly Media, je l’ai mis en ligne sous une licence libre, cette fois sous un format plus agréable, et des projets de traductions bénévoles sont aussitôt apparus. Plusieurs ont maintenant porté fruit : le titre existe en japonais, en galicien, en allemand, en néerlandais et en français. La traduction espagnole est presque terminée, et d’autres encore sont en cours dont je vous épargne la liste.

(Ah oui, au fait, plusieurs de ces traductions sont disponibles en format papier de qualité commerciale, j’en ai chez moi des exemplaires. L’activité lucrative est parfaitement compatible avec les modèles de distribution non restrictifs, comme nous l’avons déjà souligné à plusieurs reprises)

Alors… tout ça pour un livre traitant de collaboration au sein des projets open source ? Vraiment ? Que peut-on en déduire ?

Eh bien, voyons un contre-exemple.

Hans Günther Adler (« HG Adler » de son nom de plume) est un auteur mort en 1988 dont l’œuvre est désormais largement reconnu comme majeure dans la littérature allemande sur l’Holocauste. Très peu de ses œuvres ont été traduites en anglais, sauf tout récemment le roman Panorama, publié en Angleterre et dont la critique a longuement parlé.

Deux de ces critiques nous permettent de bien comprendre pourquoi ici, sur QuestionCopyright.org, nous considérons que notre mission essentielle est de recadrer le débat public sur le droit d’auteur. Les deux critiques littéraires — manifestement intelligents, manifestement d’accord sur l’importance d’Adler, et écrivant tous deux pour les plus influentes revues littéraires de langue anglaise — commentent l’absence scandaleuse de traductions d’Adler en anglais tout en se recroquevillant dans une attitude passive quand il s’agit d’expliciter les raisons de cette absence.

D’abord, Judith Shulevitz dans le New York Times :

De temps en temps, un livre vous fait prendre brutalement conscience de la somme d’efforts et de chance qui ont été nécessaires pour le faire arriver entre vos mains. « Panorama » est le premier roman écrit par H. G. Adler, un intellectuel juif et germanophone vivant à Prague qui a survécu à un camp de travail en Bohème, Theresienstadt, Auschwitz, ainsi qu’à un autre camp de travail forcé particulièrement horrible car souterrain, appelé Langenstein près de Buchenwald. Adler écrit la première ébauche en moins de deux semaines, en 1948 il arrive enfin en Angleterre mais ne trouve personne pour publier son livre avant 1968. 20 ans et deux manuscrits plus tard le livre est enfin publié en anglais aujourd’hui, pour la première fois.

Il est difficile de concevoir la raison pour laquelle nous avons dû attendre si longtemps. Il en résulte que Adler est un presque parfait inconnu dans le monde anglophone. Seuls trois de ses livres ont été traduits : un travail historique intitulé « Jews in Germany », un roman appelé « The Journey » et, maintenant, « Panorama ». Le fait que les lecteurs anglais et américains aient eu un accès aussi limité à l’œuvre et à la pensée d’Adler pendant si longtemps est, comme l’écrit ce spécialiste éminent de la litérature allemande moderne qu’est Peter Demetz, « l’un des grands scandales de notre époque ».

Ensuite, voici ce qu’écrit Ruth Franklin dans le New Yorker :

Hermann Broch a écrit que le livre Theresienstadt 1941–1945 deviendrait un classique sur la question, et que la méthode d’Adler « clinique et précise, non seulement saisit les détails essentiels mais parvient à montrer en plus l’étendue de l’horreur des camps d’une manière particulièrement pénétrante ». (Le livre a été publié en Allemagne en 1955 et il est devenu très vite un ouvrage de référence pour les études allemandes sur l’Holocauste mais n’a jamais été traduit en anglais.)

Soit, Shulevitz et Franklin écrivaient des critiques du travail même d’Adler, pas des analyses sur les raisons pour lesquelles ces ouvrages avaient été si peu traduits en anglais. Il est pourtant frappant qu’ils aient choisi tous deux de commenter le manque de traduction, plus ou moins longuement, et pourtant ils n’offrent aucune hypothèse sur les raisons de cette absence. Ils décrivent simplement la situation et expriment leurs regrets, comme s’ils parlaient simplement du mauvais temps ; il n’y aucune indignation ni frustration sur le fait que l’absence de traduction est tout simplement due au fait qu’elles ont été interdites avant même qu’on puisse les commencer.

Je ne vais même pas utiliser « probablement » ou « sans doute » dans cette déclaration. À ce point, il faut considérer qu’il s’agit de faits établis. Si mes livres – mes petits ouvrages qui ne visent qu’une population limitée dans le monde du développement logiciel – sont traduits depuis l’anglais dans d’autres langues au lectorat plus faible, il est tout simplement impossible que les livres bien plus importants de H.G. Adler, sur des sujets beaucoup plus importants, n’aient pas été traduits de l’allemand vers l’anglais, si même une seule personne (ou, plus important encore, un seul groupe) qui aurait eu l’ambition de les traduire avait été libre de le faire.

Il existe un grand nombre de personnes qui parlent couramment à la fois l’anglais et l’allemand ; les études sur l’Holocauste intéressent de très nombreux locuteurs de ces deux langues et il existe des sources de financement, tant gouvernementales que provenant d’organismes à but non lucratif, qui auraient volontiers soutenu ce travail (certaines traductions de mon deuxième livre ont reçu ce genre de financement, il serait incompréhensible que ces financements puissent exister pour cela et pas pour les traductions du travail de Adler).

Le fait que l’absence de traductions d’Adler, ou d’autres œuvres importants, ne soit pas directement compris comme étant dû aux restrictions issues du droit d’auteur souligne la dramatique faiblesse du débat public autour du droit d’auteur. A l’heure actuelle, les traducteurs ne peuvent pas traduire s’ils ne sont pas assurés en premier lieu d’en avoir le droit, et puisque la position par défaut du droit d’auteur est que vous n’avez pas le droit de traduire à moins que quelqu’un ne vous en donne explicitement le droit, la plupart des traducteurs potentiels abandonnent sans avoir même essayé. Ou, plus probablement, ils ne pensent même pas à essayer, car ils ont été habitués à cette culture basée sur la permission. La simple recherche de la personne à qui demander la permission est un processus suffisamment décourageant, sans même compter le temps passé dans les incertaines négociations qui s’ensuivent lorsque vous avez trouvé la bonne personne.

Il n’est pas étonnant que de nombreux ouvrages de valeur restent sans traduction, étant donné les obstacles. Mais il est étonnant que nous continuions à nous voiler la face sur les raisons de cette situation, alors même lorsqu’elles nous crèvent les yeux.

Notes

[1] Crédit photo : Shandi-Lee Cox (Creative Commons By)