Dans les ateliers libres du futur tout objet produit est en bêta

Il y a de l’espoir. Qu’on les appelle fab lab ou, comme ici, open source workshops, il se passe véritablement quelque chose dans le monde matériel actuellement. Quelque chose qui localement nous donne envie de nous retrouver pour créer ensemble et donner du sens à cette production[1].

Dans ce monde en gestation, certains mots comme compétition, délocalisation, marketing, argent, banque, normalisation… s’estompent pour laisser place à un vivre ensemble potentiel qui sonne moins creux que dans la bouche des politiciens.

Il en aura fallu passer par internet, et par l’expérience virtuelle probante de projets collaboratifs comme le logiciel libre ou Wikipédia, pour en arriver là. Là c’est-à-dire en des lieux où il ne tient qu’à nous de faire pousser nos propres ateliers libres, tel l’Open Design City de Berlin dont nous vous racontons l’histoire ci-dessous.

Comme le dit Stallman lorsqu’il nous salue : « Happy Hacking! »

Un aperçu du futur du « Do It Yourself » : les ateliers libres – Tout produit est en bêta !

A Peek at the Future of DIY: Open-source Workshops – Every product is beta!

Jude Stewart – 4 octobre 2010 – Fast Co Design
(Traduction Framalang : Lolo le 13, Goofy, Julien, Mammig et Martin)

Le « faites-le vous-même » (NdT : Traduction littérale et non satisfaisante du DIY pour Do It Yourself) règne en maître dans le monde virtuel. Nous pouvons en effet aujourd’hui construire librement et sans trop de frais nos propres blogs, e-books et magazines Web. Par contre fabriquer des choses réelles, palpables et tangibles semble être le domaine réservé de ceux qui savent s’y prendre avec un marteau et des clous.

Fast Co Design

Ce n’est pourtant plus le cas désormais. La révolution open source est en train de mettre la conception des produits entre les mains de tout un chacun. Prenez l’Open Design City (ODC) basé à Berlin. C’est un atelier dans lequel n’importe qui peut apprendre à faire à peu près n’importe quoi, du portefeuille en bioplastique à la lampe à pull-overs (cf ci-dessous). La recette est simple comme un sourire : rassemblez des personnes qui veulent partager des idées et collaborer, apprennez-leur à utiliser quelques machines-outils, puis faites des choses sympas ensemble.

C’est un mouvement qui peut potentiellement se substituer à la manière traditionnelle de concevoir et fabriquer industriellement des objets, voire même changer notre mode de consommation. « Je crois fortement que nous verrons émerger de plus en plus d’espaces comme celui-ci » dit Christoph Fahle d’Open Design City. « Nous ne sommes pas à proprement parler dans du développement scientifique, parce que pour que cela marche, il n’y a pas besoin d’expert en balistique. Il s’agit plutôt de favoriser les interactions sociales permettant de créer de nouvelles choses. Si vous regardez Facebook, ce bien moins sa technologie qui a influencé les usages que l’idée du réseau social

Les ateliers ouverts sont une conséquence et un prolongement de la fièvre que connaît actuellement le Do It Yourself. Il y a beaucoup de ressources et d’énergie sur des sites comme MAKE, Instructables.com et IKEAhacker ou de réseaux de vente comme Etsy et Supermarket. Aujourd’hui les gens peuvent acheter leurs propres imprimantes 3D pour moins de 1 000 $.

Fast Co Design

Le co-fondateur Jay Cousins est arrivé dans Open Design City par une voie détournée. Il était un concepteur de produits haut de gamme spécialisé dans ce qu’il appelle la vaisselle et il fut déçu de cette expérience. « Ce travail s’est transformé en piège, tout devenait management au lieu d’être créativité » se souvient-il. « C’est ce qui m’a fait penser en un lieu où les concepteurs et les inventeurs se retrouvent ensemble pour participer à la production. » À la recherche d’une nouvelle inspiration, Jay Cousins a déménagé à Berlin en 2009 et a attéri à Palomar 5, un espace innovant sponsorisé par Deutsche Telecom (malgré son nom qui sonne très hippie). À Palomar 5, « nous avons beaucoup observé comment nous nous collaborions » dit Jay Cousins. « Vous entrez dans un intense conscience de ce qui vous soutient dans votre énergie créative et de ce qui vous bloque ». Là-bas, il rencontra Christopher Doering, un concepteur produit qui est passé par la Bauhaus University de Weimar.

Après ces six semaines à Palomar 5, tout deux eurent envie de créer leur propre atelier ouvert. La fortune souriant aux audacieux, l’occasion de présenta et, au cours du printemps dernier, Jay Cousins et Christopher Doering mirent sur pied un atelier DoIt Yourself à Betahaus, un nouvel espace de travail collaboratif dans le quartier Kreuzberg de Berlin, Open Design CIty était né.

Fast Co Design

Fast Co Design

À Open Design City les travailleurs du premier étage peuvent déambuler au rez-de chaussée et louer des outils à l’heure ou au jour. Ils peuvent participer à un atelier ouvert dans lequel un responsable enseigne au groupe une technique particulière puis ouvre l’étage aux expérimentations.

L’équipement mis à leur disposition des participants est vaste. Ils peuvent ainsi faire joujou avec des outils (scies, scies sauteuses, marteaux…), un sérigraphe pour les textiles, du matériel photographique, des plaques électriques et un évier, de la laine, du savon et du papier-bulle pour faire du feutre, un stock généreux de fécule, de vinaigre et de glycérine qui une fois mélangés avec de l’eau et chauffés font un bioplastique modelable et modulable.

Peu d’outils sont véritablement high-tech mis à part une imprimante 3D qui imprime en pressant de fines couches de certains matériaux et qui est capable de produire une forme en utilisant les données en trois dimensions que l’utilisateur lui donne. Une telle machine ressemble à un four : une fine couche de nylon est chauffée jusqu’à ce qu’elle s’amolisse puis est injectée dans un moule dans lequel elle se durcit à nouveau. Open Design City n’a pas de découpage laser ou d’autres outils similaires permettant de le qualifier pleinement de « fablab ».

La grosse partie de l’équipement provient des dons. « Un type a un jour acheté une tonne de briques Légo blanches en choisissant d’en offrir quelques uns à l’atelier » dit Fahle.

Fast Co Design

Fast Co Design

Apprendre à utiliser l’équipement est d’ordinaire la partie la plus difficile.

Doering se souvient d’un membre de l’ODC, une responsable de communication née en Iran qui travailait au betahaus. Elle voulait faire des énormes lettres en polystyrène expansé pour écrire des slogans lors d’un événement de soutien à la résistance iranienne (cf ci-dessous). Après avoir fait faire des devis « incroyablement cher » dans un atelier de prototypage traditionnel, elle est venue à l’ODC pensant qu’elle pourrait expliquer son projet et ensuite le laisser entre des mains plus expertes. Eh bien non. « Nous avons fait un marché : qu’elle nous aide à acheter une machine pour couper le polystyrène et on lui enseignera alors (à elle et à ses amis) comment l’utiliser » explique Doering. « Au début, elle ne cessa de répéter : Ce n’est pas possible ! Comment pourrai-je faire ça ? Mais une fois que nous avions passé 15 minutes ensemble, elle a vu comment c’est vraiment amusant et facile à faire. Elle et ses amis se sont totalement éclatés à faire ça. Ils ont passé une semaine à couper comme des dingues, monter une fausse prison en briques et inventer une méthode pour joindre les lettres. Tout ce dont il y avait besoin était ce petit coup de pouce de départ. »

Fast Co Design

Open Design City enourage une méthode parallèle de travail qui compose avec les égos et promeut le sens du jeu. Cousins explique : « Si je crois qu’un projet doit être réalisé d’une certaine manière et Chris a une idée différente, au lieu de nous disputer pour savoir laquelle est la meilleure, nous essayons les deux méthodes en même temps et partageons ce que nous apprenons au fur et à mesure. »

Est-ce que le talent ou l’expérience importe dans ce meilleur des mondes ? Oui et non.

Doering aime la façon dont les ateliers ouverts comme Open Design City remettent en question l’idée même de qualité (d’autant que c’est le sujet de sa thèse au Bauhaus). « La qualité doit toujours répondre à certains critères objectifs, bien sûr », explique-t-il, « la culture industrielle dit : voici un produit pour une certaine utilisation et qui a une certaine valeur. Mais les objets aiment à s’échapper des carcans. Il est totalement limitant de dire : c’est une lampe, son but est de remplir l’espace avec de la lumière. Parce que c’est aussi un cadeau de votre grand-mère, c’est une touche personnelle dans votre living-room, etc. et il faut conserver cette flexibilité-là. »

Il a pris une feuille de plastique d’amidon sur l’établi et il l’a brandie. « C’est un biopolymère. Ce n’est pas résistant à l’eau et je ne sais pas combien de temps cela peut tenir en état, un an, peut-être. Voilà au contraire ce qui se passe avec les plastiques à base de pétrole : ils durent éternellement et ce n’est pas une bonne façon de penser. Nous n’aimons pas nos produits aussi longtemps ».

La valorisation des déchets (NdT : upcycling), qui récupère de vieux produits pour les recombiner dans de nouveaux objets désirables, est au programme de futurs événements de l’ODC.

Fast Co Design

Tout cela résonne furieusement anti-industriel — et d’un certain côté c’est bien le cas.

Mais en tant que concepteur produit et pionnier du mouvement Open Design, Ronen Kadushin nous rappelle que renverser la structure du pouvoir dans l’entreprise n’est pas le but. « Vous connaissez le vieux proverbe romain à propos de la hache de votre grand-père ? » dit-il. « Mon père a changé son manche et j’ai changé la lame. Rien de ce que j’ai dans la main ne vient de mon grand-père, mais c’est toujours la sienne. C’est une tradition de valeur. Nous n’avons désormais plus d’objets qui remplissent ce besoin ; nous n’avons pas de hache. La meilleure façon de rester attaché à un produit ou un objet est de le faire soi-même. »

Vers quel avenir pourrait nous mener la fabrication libre de tels produits ?

Vers un Moyen Âge dopé au silicium, répondent Doering, Fahle et Cousins, dans lequel des artisans seraient connectés « localement » avec toute la planète grâce à internet. « Une telle perspective est un peu régressive, en fait » admet Cousins. « Elle nous ramène à l’ère du boulanger, du fabricant de meubles, du spécialiste en électronique, de votre homme à tout faire — un système distribué dans lequel nous reconnaissons mutuellement nos compétences, et les valorisons. Nous ne pouvons plus nous permettre de prendre un objet et de déclarer : « il est 100% éthique, personne n’a été blessé, aucune communauté n’a été décimée au cours de sa fabrication » parce que c’est trop complexe à gérer et non satisfaisant puisque nous demeurons passifs. Diffuser et partager la connaissance de la fabrication d’objets au sein de la communauté ODC nous apporte de la résilience tout en nous permettant de mieux nous débrouiller seuls ».

Fast Co Design

« Mais ce n’est pas seulement une question de survie », poursuit Cousins, « Nous luttons pour nous reconnecter à une communauté et une culture de la participation. C’est un lien très puissant qui s’est progressivement étiolé au cours de ces cent dernières années ». Le paradoxe n’est qu’apparent : les déchets de la révolution industrielle devenant le matériau brut pour des ateliers de type médiéval, un mouvement rendu possible par un Internet massivement collaboratif, une population lassée de vivre virtuellement, et des machines dont le prix s’est démocratisé grâce à une base de consommateurs désireuses d’acheter de nouveaux moyens de production. Ce qui est vieux redevient alors réellement nouveau.

Notes

[1] Crédit photos : Betahaus




20 ans que sans concurrence Microsoft équipe l’Europe !

Sébastien Bertrand - CC byLes institutions européennes, toujours promptes à donner la leçon, ont peut-être d’autres chats à fouetter actuellement mais il nous semble bon de leur rappeler un passé peu glorieux et un présent scandaleux[1].

Cela fait en effet près de 20 ans que l’on déroule le tapis rouge à la société non européenne Microsoft sans jamais prendre la peine d’évaluer les autres solutions, parmi lesquelles, évidemment, figure le logiciel libre.

Peut-être qu’en 1992, il était hasardeux de choisir autre chose que Windows pour ses postes clients. Mais pourquoi avoir systématiquement reconduit cette forme de partenariat exclusif jusqu’à aujourd’hui alors que parallèlement de réelles et crédibles alternatives voyaient le jour ?

Il est grand temps d’opposer au lobbying un certain bon sens citoyen. Je le dirai à mon député européen la prochaine fois que je le croiserai 🙂

Depuis 20 ans la Commission européenne achète du Microsoft sans concurrence

European Commission buys Microsoft for 20 years without competition

Mark Ballard – 15 août 2011 – ComputerWeekly.com
(Traduction Framalang : Goofy, ZeHiro, Pandark, Lolo le 13)

La Commission européenne achète des produits Microsoft depuis 1993 sans appel d’offre ouvert à la concurrence qui aurait pu proposer des alternatives, selon des documents transmis au magazine Computer Weekly.

Ces documents transmis au magazine Computer Weekly soulevent des questions quant à une politique d’achat qui a permis à un fournisseur unique de régner en maître pendant si longtemps en s’appuyant sur des exceptions législatives habituellement réservées à des circonstances extraordinaires.

Ils soulevent aussi des interrogations quant à la validité des explications officielles fournies par la Commission pour sécuriser ses accords commerciaux avec Microsoft, appelés « procédures négociées ». Le dernier en date, concerne l’acquisition pour environ 50 millions d’euros de licences logicielles pour les 36 000 PC et les infrastructures associées que comptent les 42 institutions européennes, y compris le Parlement Européen et la Cour de Justice.

Karsten Gerloff, président de la Free Software Foundation Europe, a dit que l’accord en cours avec Microsoft était une « honte » pour la Commission Européenne. « Il est effarant de constater que tous les accords passés entre la Commission et Microsoft depuis 1993 ont été conclus sans aucun appel d’offre public » a-t-il déclaré. « Il en résulte que la Commission Européenne est totalement dépendante d’un seul et unique fournisseur de logiciels pour ses outils de bureautique. Il est clair que les lois régulant les procédures d’achat de l’Europe doivent être rapidement mises à jour. Actuellement, celles-ci laissent bien trop de place aux accords négociés et anticoncurrentiels. »

« Ceci montre bien que le marché n’est ni juste ni égal », renchérit Paul Holt, directeur des ventes chez Canonical (NdT : Ceux qui distribuent Ubuntu). Il a ajouté que les accords que Microsoft a signé avec les institutions européennes empêchent celles-ci d’utiliser des standards ouverts qui permettraient de promouvoir la concurrence. Ainsi, Microsoft a pu imposer aux institutions européennes ses propres spécificités techniques.

Un porte-parole de Microsoft a affirmé que l’entreprise ne ferait pas de commentaires. « La Commission est le contractant et eux seuls décident de leur procédure d’achat » a-t-il dit.

Computer Weekly comprend toutefois que Microsoft s’appuie sur la ligne adoptée par le Directoire pour l’Informatique de la Commission Européenne (DIGIT) en réponse aux récentes questions des députés européens à propos de leurs contrats.

Maroš Šef?ovi?, le vice-président de la Commission et commissaire pour l’administration et les relations inter-institutionnelles, qui mène une réforme majeure des Technologies de l’Information et de la Communication dans la Commission Européenne, a déclaré aux députés européens que la Commission s’engageait dans la « promotion de l’interopérabilité » en utilisant des standards. Mais il a indiqué que ces standards pouvaient inclure ceux implémentés par les vendeurs de logiciels commerciaux. Il a démenti que la Commission ait été contrainte de se procurer des produits chez un unique fournisseur.

Le DIGIT affirma en 1992 qu’il était obligé de signer un arrangement privé avec Microsoft parce qu’aucune autre entreprise ne pouvait fournir le logiciel adéquat. Mais la justification officielle de la Commission pour cet arrangement demeure vague. Des procédures similairesen 1996 et 1999 confirment la position de Microsoft comme étant le seul fournisseur de systèmes d’exploitation et d’applications de bureautique pour la Commission.

Depuis 2003 cependant, la justification officielle de la Commission a évolué. La raison invoquée ici est qu’un logiciel alternatif impliquerait une incompatibilité technique et des migrations trop lourdes. Aiinsi il n’y a pas d’autre choix que de continuer à acheter du Microsoft.

La Commission a utilisé la même excuse d’incompatibilité pour justifier des achats sans concurrence avec Microsoft en 2007 et 2011. La justification contredit apparemment le discours de Šef?ovi? qui prétend que la Commission n’est pas pieds et poings liés à Microsoft, et qu’elle s’était engagée résolument dans la voie des standards interopérables.

Un porte-parole du DIGIT a déclaré que les directives concernant les achats de l’Union Européenne avaient changé plusieurs fois ces vingt dernières années, mais que les fournisseurs ont été choisis après une analyse approfondie du marché, des besoins des utilisateurs et du coût des achats.

« Il existe un grand nombre de procédures pour l’achat de biens et de services et tout choix particulier est dûment motivé et explicité. Il résulte d’une analyse poussée de la situation du marché, des besoins des utilisateurs et du coût total de l’acquisition. L’ensemble est mené dans un cadre qui a fait ses preuves, celui de la procédure Gestion des Technologies », a-t-il indiqué dans une déclaration écrite. Les décisions prises ont été soumises à un contrôle interne et sont conformes à la législation européenne.

Il a affirmé avec insistance que la Commission n’était pas contrainte à acheter des produits Microsoft : « Nous avons toujours dit clairement que ce n’était pas le cas, et que nous analysons en permanence les options offertes par le marché ».

Le dernier accord conclu en mai a assuré l’achat de licences pour que l’administration européenne puisse continuer à utiliser une gamme complète de logiciels Microsoft. Elle comprend les systèmes d’exploitation, la suite Office, le logiciel de gestion de base de données SQL Server Entreprise, des outils pour collaborer et gérer des projets ainsi qu’un volet sur la sécurité et le courrier électronique.

Mais Šef?ovi? a créé plusieurs comités de gestion des TIC qui n’ont toujours pas décidé si la Commission devait continuer à utiliser exclusivement des logiciels Microsoft. Ainsi on attend toujours la décision à prendre concernant la mise à niveau vers le système d’exploitation Windows 7, et ce neuf mois après avoir été soumise aux équipes dirigeantes.

Graham Taylor, directeur général d’Open Forum Europe, un groupe de pression activé par Google, IBM, Oracle et Red Hat, a déclaré qu’ils avaient abordé la procédure négociée avec « la plus extrême prudence », sans comprendre pourquoi la Commission l’avait utilisée pour empêcher la concurrence sur le marché du logiciel pour ordinateur de bureau.

Notes

[1] Crédit photo : Sébastien Bertrand (Creative Commons By)




Ne dites plus Copyright mais Monopole du Copyright !

taxbrackets.org - CC byLes mots ont un sens, et ce n’est pas notre librologue Valentin Villenave qui nous contredira.

De la même manière qu’on critique Stallman lorsqu’un logiciel non libre devient un logiciel « privateur », on reproche à Rick Falkvinge d’accoler systématiquement « monopole » à « copyright ».

Il a choisi de s’en expliquer ci-dessous[1].

On notera que ce billet est publié dans le triste contexte européen du prolongement de la protection des droits des interprètes musicaux pendant 70 ans. Vous appelez cela comment vous ?

Rick Falkvinge est le fondateur du Parti pirate suédois et a déjà fait l’objet de billets sur ce blog (ici et ).

Si le sujet vous intéresse, nous rappelons l’existence de notre framabook un brin provocateur qui se propose de carrément supprimer le copyright.

Pourquoi je persiste à parler de « Monopole du Copyright »

Why I Insist On Saying “The Copyright Monopoly”

Rick Falkvinge – 12 septembre 201 – Site personnel
(Traduction Framalang : Don Rico)

Certains se demandent pourquoi j’emploie toujours le terme de « monopole du copyright » plutôt qu’utiliser simplement le mot « copyright ». « N’est-ce pas de la rhétorique de bas étage ? », m’interroge-t-on. Cette formule n’est ni médiocre, ni un effet de rhétorique. Comme je tente souvent de la faire, j’ai choisi ces mots avec soin pour mettre en lumière un problème important.

Dans une salle d’audience, on n’entend jamais les avocats du copyright utiliser l’expression courante « Nous possédons les droits de ce film ». Ils préfèrent employer la formule juridique « Nous détenons les droits exclusifs de ce film ».

Le vocabulaire et le jargon juridiques sont parfois complexes, et nous avons tous le devoir d’expliquer au public les complexités du monopole du copyright dans les termes les plus compréhensibles possible.

Pour beaucoup, un droit exclusif reste une notion théorique et mystérieuse. C’est pourquoi je préfère de loin le terme monopole, sémantiquement identique.

On notera que j’emploie là le vocabulaire même de l’industrie du copyright et me contente de remplacer un mot par un synonyme compris du plus grand nombre.

Il existe une autre motivation à mon choix. En parlant de « monopole du copyright » plutôt que de « copyright », on insiste sur la nature de la législation, sur le fait qu’il s’agit d’un droit exclusif, ou… monopole, lequel est en opposition aux droits de la propriété, et n’en est justement pas un. Le simple fait d’employer des termes précis et transparents permettra de mettre en lumière cet abus de langage.

J’ai pu discuter avec deux professeurs de droit qui n’éprouvaient aucune difficulté à recourir au terme « monopole » pour débattre de la législation, ce mot étant tout à fait correct. (Toutefois, lorsqu’un troisième juriste m’a demandé de m’expliquer, j’ai précisé que je parle d’une monopole statutaire (de jure), et non d’une position commerciale dominante abusive (de facto). Chacun a été satisfait, et la conversation s’est poursuivie.)


Pour finir, si l’industrie du copyright ne supporte pas que j’utilise l’expression « monopole du copyright », c’est pour la simple raison qu’elle énonce clairement la nature de la législation à ceux qui n’ont pas encore pris la peine de se pencher sur la question. Le terme monopole a une connotation négative, certes, mais pour une bonne raison. Si certains réagissent mal lorsque j’emploie des mots corrects et faciles à comprendre pour illustrer la situation, c’est à cause de la situation elle-même.

Voilà pourquoi j’aimerais que d’autres que moi parlent systématiquement de « monopole du copyright ». Nous sommes chargés d’une mission, celle d’éduquer le grand public à la nature véritable de cette législation.

Notes

[1] Crédit photo : taxbrackets.org (Creative Commons By (image sur Flickr))




Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




Librologie 4 : Plain

Bonjour amis lecteurs et lectrices,

Un chapitre un peu exceptionnel pour la Librologie de cette semaine, dans de bien tristes circonstances. Je vous propose donc de réfléchir aujourd’hui au projet Gutenberg, à son fondateur Michael Hart… et à un objet mythique par excellence du monde geek : le plain-texte.

Bonne lecture à tous et à toutes ![1]

Librologie 4 : Plain

Michael HartJe précipite la publication de cette chronique (prévue pour le trimestre prochain) en apprenant à l’instant le décès de Michael Stern Hart, fondateur du Projet Gutenberg qui est la première (et sans doute la plus attachante) des bibliothèques Libres en ligne.

Au moment où j’écris ces lignes, le Projet Gutenberg s’apprête à fêter ses 40 ans — c’est-à-dire que sa naissance précède même celle du réseau Internet ! C’est le 1er décembre 1971 que tout commence, soit une bonne décennie avant l’apparition du mouvement Libre. Nous sommes à l’université d’Illinois, dont l’ordinateur central vient d’être mis en réseau avec une poignée d’autres, y compris (et c’est une grande première) au-delà du contient américain, pour former le réseau ARPANET.

Xerox-SDS Sigma 5 - Laughing Squid - CC by-ncCe jour-là le jeune Michael Hart, âgé de 24 ans, va se retrouver devant ce joyau de technologie (un Xerox-SDS Sigma V, réparti dans quatre grandes armoires, doté de 64 Ko de mémoire et de 2 Mo de stockage sur bande), pleinement conscient de l’immense faveur qui lui est accordée (le temps d’ordinateur est précieusement minuté, la moindre minute ayant un coût exorbitant). Comment être à la hauteur de cet honneur historique ? C’est en chemin que l’idée lui vient, ayant récupéré à l’épicerie du coin un prospectus où est reproduite la Déclaration d’indépendance des États-Unis d’Amérique (lesquels États-Unis s’apprêtent alors à fêter leur bicentenaire) : il va frapper un grand coup, et partager avec le monde entier un patrimoine culturel qui lui survivra et traversera les siècles.

Le projet Gutenberg prend donc vie avec ce premier texte, qui sera alors consulté par un total de… six arpanautes. Cependant Hart voit loin (l’intitulé « Gutenberg » en témoigne), et se fixe pour objectif de mettre en ligne avant la fin du siècle, les 10 000 ouvrages les plus lus au monde. Si les débuts sont laborieux (isolé et privé de toute reconnaissance académique, Hart mettra vingt ans à atteindre seulement le chiffre de 100 livres), l’objectif sera non seulement atteint mais pulvérisé à partir des années 1990, avec l’avènement du Web et de la numérisation automatisée d’ouvrages imprimés. À l’heure où j’écris ces lignes, le projet Gutenberg approche les 40 000 opus (dont certains comptent plusieurs milliers de pages) ; cependant il a été rejoint par d’innombrables initiatives similaires ou concurrentes : de Wikisource à Google Books® en passant par Internet Archive, Gallica ou Européana, l’on ne compte plus aujourd’hui les bibliothèques en ligne dont le fonds est (plus ou moins) librement accessible au public. Le réseau Internet tout entier s’est massivement transformé en vecteur de diffusion et de consommation culturelle ; P2P, MP3, streaming, podcasts, multimédia en tout genre, culte de l’image (particulièrement de l’image animée). Les livres eux-même se sont faits e-books, terme dont j’attends encore que l’on m’explique ce qu’il peut bien signifier et pourquoi on a cru bon de l’inventer — si ce n’est pour vendre, à l’occasion, des attrape-gogos numériques.

Naturellement, le projet Gutenberg n’a pas été insensible à cette évolution (qu’il a largement contribué à susciter). L’on trouvera ainsi sur la page d’un livre au hasard, la mention « eBook » largement mise en avant, ainsi que les liens suivants : Bibrec (métadonnées bibliographiques), QR Code (« Flashcode » bi-dimensionnel pour téléphone mobile), Facebook, Twitter (sans commentaire), HTML, EPUB, Kindle, Plucker, QiOO Mobile… L’on trouvera aussi, à l’occasion, des versions audio des livres en question, dans des formats Libres (Ogg Vorbis, Speex) et non-libres (MP3, Apple iTunes). On le voit, la priorité du projet Gutenberg est d’être visible et accessible (commodément) au plus grand nombre, même au prix de quelques « fautes de goût » Libristes.

Hart assume pleinement cette diversité :

Le projet Gutenberg est animé par des idées, des idéaux et un idéalisme.
Le projet Gutenberg n’est pas animé par un pouvoir financier ou politique.
De ce fait le projet Gutenberg est entièrement animé par des bénévoles.
Étant entièrement animés par des bénévoles, nous sommes réticents à toute forme d’autorité sur nos bénévoles, pour leur dire ce qu’ils doivent faire ou comment ils doivent le faire.

Nous offrons autant de libertés que possible à nos bénévoles, dans le choix des livres à partager, des formats dans lesquels les partager, ou toute autre idée qu’ils pourraient avoir quant à « la création et diffusion d’eBooks ».

Le projet Gutenberg n’a que faire d’établir des standards. Si c’était notre rôle, nous aurions accepté avec joie la proposition qui nous a été faite de convertir nos eBooks en HTML lorsque le Web était une idée toute nouvelle en 1993 ; nous nous satisfaisons d’apporter des eBooks à nos lecteurs dans tous les formats que nos bénévoles souhaitent produire.

(…) Nous encourageons les gens à nous faire parvenir des eBooks dans n’importe quel format, puis nous cherchons des bénévoles pour les convertir dans d’autres formats, et corriger peu à peu les erreurs d’édition.
(…) Nous voulons présenter au monde autant d’eBooks, dans autant de formats et en autant de langues, que possible.

Quelques formats exotiques ou propriétaires qu’il puisse proposer, rien ne me semble mieux illustrer la démarche d’accessibilité et d’universalité du projet Gutenberg que son choix, encore réaffirmé aujourd’hui, de proposer tous ses ouvrages sous forme de simples fichiers texte : dépourvus de mise en forme, d’illustrations ou de toute fioriture, ces fichiers symbolisent toute une mythologie Libriste remontant aux débuts de l’informatique, et qui est celle du plain-texte.

Plain text - oxygen-icons.org - LGPLL’expression « plain text » est de celles que l’on comprend aisément sans toutefois parvenir à la traduire de façon entièrement satisfaisante. Le projet Gutenberg propose « texte brut » ; Mozilla Thunderbird, sous la plume de Cédric Corazza, y ajoute « texte normal », plusieurs éditeurs en ligne proposent « texte pur », l’interface de Google Mail® indique « texte seul ». Wikipédia est tout aussi désemparé, juxtaposant allègrement, inspirez profondément, « fichier texte ou fichier texte brut ou fichier texte simple ou fichier ASCII »… et encore, ce n’est qu’après avoir rejeté la traduction littérale « plein texte », qui n’était pourtant pas la pire : le mot anglais plain (lui-même dérivé du vieux français) se situe en quelque sorte à mi-chemin de nos adjectifs « plan » et « plein ». Aucune de ces traductions, hélas, ne rend l’idée de dépouillement, de linéarité et (par association d’idées) de plénitude exprimée par le vieux mot français plain, qui me semblerait pourtant avoir là une magnifique occasion d’être remis en usage : ne pourrait-on pas parler de plain-texte comme l’on parle de plain-chant ?

Le plain-texte est, donc, le premier apport historique de l’informatique : pendant plusieurs décennies, les ordinateurs n’ont permis de n’échanger que cela. C’est aussi le plus fondamental — comme l’avait bien compris Michael Hart — et le plus irremplaçable : encore aujourd’hui, l’essentiel des communications numériques entre humains se fait sous forme textuelle. Courrier électronique, messagerie instantanée, commentaires sur le Web… Le plain-texte connait même, ces dernières années, un surprenant regain d’intérêt sous une forme minimale, avec la mode des micro-blogs dont nous serons amenés à reparler ici.

Il est également l’élément immatériel le plus versatile et le plus plastique : il peut servir à écrire des textes, des livres, des programmes ou des fichiers de configuration, à éditer des documents scientifiques ou des partitions musicales, voire à décrire des graphismes, des objets en trois dimensions, ou encore… à peu près tout ce que l’on veut.

Le plus robuste aussi, sans nul doute : un fichier texte corrompu ou tronqué a de meilleures chances d’être reconstitué qu’un fichier binaire. À l’utilisateur humain, le plain-texte demeure accessible et intelligible ; rassurant, somme toute. Le programmeur Douglas McIlroy, parrain de la philosophie Unix il y a un demi-siècle, ne disait pas autre chose : « n’écrivez que des programmes dont le format d’entrée est du texte pur, car c’est là une interface universelle. » Universalité certes très relative à l’époque, puisque le codage utilisé ne permet alors l’utilisation que d’un nombre restreint de caractères ; il faudra attendre les décennies suivantes pour conquérir le bas-de-casse (comme nous l’évoquions dans notre chronique sur rms), puis les caractères accentués et l’Unicode (d’ailleurs encore chaotique aujourd’hui)…

It ain’t what it used to be - revdode - CC by-nc-saLe plain-texte est, enfin, l’âme de l’informatique : binaire et code machine étant réservés aux tréfonds du bas-niveau des calculateurs, c’est sous forme de langages de programmation textuels, toujours plus naturels, que les programmeurs s’adressent et commandent à l’ordinateur… et même les simples utilisateurs qui, aujourd’hui encore, ont la patience d’apprendre à se servir d’interface textuelles, voient leur approche de l’informatique changée à jamais : dialoguer avec l’ordinateur en ligne de commande, c’est comprendre sa logique ; c’est intervenir directement dans son fonctionnement, sans la médiation factice et opaque d’une interface conçue par des humains pour un utilisateur déshumanisé, théorique et paresseux.

En un mot, le plain-texte est Libérateur : de fait, le mouvement du logiciel Libre ne milite pas pour autre chose, depuis trente ans, que d’avoir le droit d’accéder au code source, c’est-à-dire aux programmes sous une forme de plain-texte lisible et intelligible, modifiable et aisément partageable. La parenté avec la démarche du projet Gutenberg n’en est que plus frappante.

Libérateur, accessible,… mais également respectueux : un document en plain-texte ne s’impose pas à son lecteur, n’exige pas telle ou telle manière d’être lu. Il permet (dans un environnement graphique ou même en mode console) de choisir sa propre taille de texte, sa propre police (l’on préfèrera en général une fonte à espacement fixe, comme pour une machine à écrire). À l’époque où se développent les premières interactions sociales en ligne (e-mail dans les années 1970, Usenet dans les années 1980), la question ne se pose pas en ces termes : les limitations techniques (protocoles limités à l’ASCII, lenteur et coût des communications) imposent d’aller au plus court. C’est l’hégémonie, dans les années 1990, non seulement de l’HTML mais de l’informatique grand-public dite « personnelle » et des interfaces propriétaires qui remettra en cause, ô combien, ce modèle : advient le règne de la vulgarité, dont le parangon sera le mail en HTML, abomination que nous subissons encore aujourd’hui.

L’attitude, intègre et exigeante, qui consiste à préférer le plain-texte aux merveilles bling du texte soi-disant « riche », est souvent qualifiée d’élitiste ou de puriste (comme en témoigne l’expression « texte pur ») par ses détracteurs. Il ne s’agit pourtant aucunement de remettre en cause l’appropriation des outils informatiques par le plus grand nombre, ce dont on ne peut que se réjouir. Il s’agit d’une simple question de culture : de même que l’on attend de tout citoyen qu’il possède quelques références culturelles (à commencer par un minimum de grammaire écrite, ou une connaissance de base du code vestimentaire occidental), il est légitime de rappeler que notre culture d’internautes contemporains (faite de smileys, de memes, de flood, de flamewars et de troll) est le fruit de plusieurs générations de geeks qui l’ont construite sous forme purement textuelle. (Je m’empresse de préciser ici que je n’appartiens pas moi-même à cette génération, n’ayant pas eu l’usage d’un ordinateur avant le XXIe siècle.)

ASCII ArtRappeler également, car on l’oublie trop souvent, la puissance expressive du plain-texte. Je ne reviendrai pas ici sur l’ASCII Art, même si c’est un exemple frappant. Je suis davantage intéressé par la minutie avec laquelle les codeurs (programmeurs ou non) rédigent leur code source, développant de véritables traditions (coding styles) à la fois pratiques et esthétiques dans lesquelles il me semble voir une forme de langage expressif, métalinguistique et poétique — sur laquelle je ne m’attarderai pas davantage ici. Comme toute forme de communication, le plain-texte a subi au fil des décennies une exigence d’expressivité, et certaines traces en sont particulièrement visibles d’un point de vue formel : écrire en capitales signifie que l’on crie, insérer un smiley en fin de phrase dénote un ton ironique, et ainsi de suite.

Cette exigence d’expressivité influe même sur la structure du langage, qui se surcharge de signes. Un bon exemple en est la longueur des phrases, qui à l’oral importe bien moins que le ton et le propos : dans un message électronique en plain-texte au contraire, rien n’est plus cassant qu’une phrase courte et lapidaire, et l’on se surprendra fréquemment à rallonger artificiellement ses phrases pour ne point froisser son interlocuteur. Les effets de juxtaposition, également, sont frappants — particulièrement dans un courriel auquel l’on répond de façon entrelacée avec le message d’origine. Autre effet de juxtaposition — dont j’use abondamment dans ces chroniques sous forme d’hyperliens —, l’insertion d’URLs dans le discours. Enfin les retours à la ligne et effets typographiques, pour rudimentaires qu’ils soient, permettent une certaine dramatisation (au sens de dramaturgie) du discours ; je pourrais en donner un exemple.

Ici même.

Mais à quoi bon ?

***hausse les épaules***

Enfin bref.

Il ne serait donc pas totalement honnête de théoriser, comme je l’avais moi-même fait dans une première version de cet article, que le plain-texte permet d’ignorer la forme pour se concentrer sur le contenu. La forme est toujours présente, si discrète soit-elle ; la différence est qu’elle ne fait pas nécessairement sens par elle-même, et demande un minimum d’attention, autant à l’émetteur qu’au récepteur, pour lire, littéralement, entre les lignes de plain-texte.

Michael Hart et Gregory Newby - Marcello - GFDLL’illustration idéale de ce propos m’est, à nouveau, fournie par Michael Hart, virtuose du plain-texte s’il en fut — et Libriste engagé. Sur sa très modeste page web, il évoque quelques-uns des (trop prévisibles) ennuis juridiques qu’a pu subir le projet Gutenberg dans la dernière décennie, certains éditeurs traditionnels s’étant manifestement lancés dans une croisade contre le domaine public et l’intérêt général. Il faut lire les réponses rédigées — toutes en plain-texte, évidemment — par Hart et son bras droit Gregory Newby aux mises en demeure d’éditeurs outragés : à la fois polies, implacables… et d’une ironie mordante : un exemple à suivre. La réponse de Hart concernant le livre Anthem, en particulier, est à lire à tout prix : outre son flegme et son exactitude juridique, chaque ligne fait exactement le même nombre de caractères, le tour de force par excellence de tout geek qui se respecte…

Telle est la leçon, et le souvenir, que nous laisse Michael Hart : celui d’une époque, d’un esprit où la rigueur se mêle à l’ambition et la fantaisie, où l’économie de moyens n’empêche point l’élégance et l’humour, et où, enfin, l’attrait de la nouveauté ne laisse pas s’estomper l’Histoire et le genre humain dans son ensemble.

To Michael S. Hart, a plain human being.




Geektionnerd : Priorité légales

Il est moins répréhensible d’introduire des armes dans un établissement scolaire ou de torturer des bébés chats que de partager la culture, nous disait récemment Numerama

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Librologie 3 : User-generated multitude

Bonjour à tous, bonjour à toutes,

Après deux premières Librologies en forme de portrait, je vous propose aujourd’hui de commencer à aborder le domaine des pratiques culturelles Libres, qui est la motivation d’origine de ces chroniques.

C’est l’occasion de revenir sur quelques thématiques évoquées précédemment avec l’épisode rms, mais également d’introduire d’autres problèmes que nous serons amenés à retrouver au fil des semaines.

Bonne lecture, et à la semaine prochaine…

Librologie 3 : User-generated multitude

La chronique que je vous propose aujourd’hui a déjà été écrite pour moi, au moins en partie, par l’enseignant-chercheur Olivier Ertzscheid, qui a récemment été frappé, tout comme moi (et des millions d’internautes), par le diagramme suivant :

In 60 seconds - Go-Globe.com

Son commentaire, brillamment intitulé L’imaginaire numéraire du numérique, mérite d’être lu en entier. En voici quelques fragments (où l’on notera d’ailleurs une allusion à Roland Barthes) :

Le vertige des grands nombres est constitutif de la statistique du web, formidable écosystème facilitateur et multiplicateur de la moindre interaction, de la moindre navigation, de la moindre publication, de la moindre attention portée. Les chiffres de Facebook sont donc pareillement vertigineux, comme sont vertigineux ceux de Google, de Youtube et de l’ensemble de ces mégalopoles virtuelles dans lesquelles se croisent, chaque jour, deux milliards d’internautes. (…)

Ces chiffres contribuent également à nourrir un imaginaire collectif qui, incapable de littéralement se représenter « ce que représente » le traitement computationnel de 57 milliards d’interactions comme on est incapable, dans l’instant, de se représenter « ce que représente » la fortune de Liliane Bettancourt à l’échelle de notre salaire mensuel, ces chiffres, disais-je, contribuent également à nourrir un imaginaire collectif réduit à choisir l’extase statistique comme seul argumentaire de la construction de son horizon critique. (…)

2 milliards d’internautes mais 6 miliards d’êtres humains. Or avez-vous vu récemment une infographie sur le nombre de véhicules circulant chaque jour sur le périphérique parisien ou new-yorkais ? Voit-on se multiplier les infographies sur le nombre de coups de fils passés chaque jour dans le monde ? Sur le nombre de litres d’essence consommés chaque jour dans chaque pays ? Sur le nombre de feuilles de papier sortant chaque jour des imprimantes domestiques ? On sait que là aussi les chiffres seraient vertigineux. Mais ces chiffres là ne nous fascinent plus. L’écosystème qu’ils décrivent est « tangible », lourdement, tristement et désespérement tangible. (…)

Le chiffre, les chiffres de l’internet renvoient donc à des effets de sidération qui participent d’une atténuation de l’effet de réel des entités qu’ils décrivent en même temps qu’ils renforcent le pouvoir symbolique des grandes firmes du web. (…) La mythologie de l’internet – au sens des mythologies de Barthes – est construite sur ces chiffres renvoyant à une nouvelle Babel statistique.

Puisqu’Olivier Ertzscheid nous y invite, relisons les Mythologies de Barthes, et tentons par exemple de mettre en balance ce nouvel imaginaire vertigineux des très grands nombres auquel donne lieu Internet, avec la rhétorique de la computabilité et de la quantifiabilité que Roland Barthes observait chez la petite-bourgeoisie poujadiste de son temps (état d’esprit dont nous avons vu qu’il est toujours à l’œuvre aujourd’hui) : « l’infini du monde est conjuré, écrit-il dans son texte sur Poujade déjà cité, (…) toute une mathématique de l’équation rassure le petit-bourgeois, lui fait un monde à la mesure de son commerce ».

M. Ertzscheid n’a pas tort de parler d’une « extase statistique » (d’ailleurs souvent en forme d’auto-congratulation), cependant il s’en faut de peu pour que l’extase cède le pas (en particulier dans certains milieux traditionnellement légitimés) à un sentiment de terreur. Un chiffre concevable fait un argument publicitaire efficace, un chiffre inconcevable effraie. On peut nous vendre, sur des affiches de vingt mètres carrés, tel grand concert dans un stade sportif, avec « 500 musiciens, 200 artistes sur scène », mais on a renoncé depuis longtemps à nous vendre tel film comme ayant nécessité « 200 millions de dollars, 50 000 figurants » et ainsi de suite.

Lorsqu’il cesse d’être concevable pour devenir « sidérant », lorsqu’il ne réduit plus le monde à une donnée appréhensible mais évoque au contraire son ampleur, le chiffre n’est plus un nombre, mais une image : on ne s’appuie plus dessus pour argumenter, mais pour frapper les esprits. Cela n’a pas échappé à un autre enseignant-chercheur, André Gunthert, qui rebondit sur l’analyse de Ertzscheid pour critiquer un ouvrage de Patrice Flichy intitulé Le Sacre de l’amateur, et dont les premières lignes donnent (mal ?) le ton :

Les quidams ont conquis Internet. Cent millions de blogs existent dans le monde. Cent millions de vidéos sont visibles sur YouTube. En France, Wikipédia réunit un million d’articles, et dix millions de blogs ont été créés. Un quart des internautes a déjà signé une pétition en ligne. Ces quelques chiffres illustrent un phénomène essentiel : le web contemporain est devenu le royaume des amateurs.

Ce qui définit l’amateur, c’est donc sa multitude indéterminée (par opposition, imagine-t-on, à la singularité du « professionnel » — j’y reviens à l’instant). Dans un autre ouvrage plus ancien au titre similaire (Le Culte de l’Amateur, également remarqué par Gunthert), l’entrepreneur américain Andrew Keen est même nettement plus vindicatif :

Voici l’ère où la musique que nous écouterons viendra de groupes amateurs dans des garages, les films que nous verrons viendront d’un YouTube amélioré, et les actualités, faite de potins mondains survitaminés, nous seront servies comme une garniture autour de la pub. Voilà ce qui arrive lorsque l’ignorance se joint à l’égoïsme qui se joint lui-même à la loi de la foule.

Les invasions barbares, réactualisation d’un mythe. Cependant, est-ce vraiment là la seule attitude possible ? Autre entrepreneur américain, Chris Anderson a montré avec ses travaux sur la « longue traîne » et l’économie de la gratuité que l’avènement des « multitudes » sur le Web pouvait permettre l’émergence de modèles éminement rentables.

À condition, évidemment, de savoir quoi vendre. Nous parlions récemment de ce glissement linguistique qui consiste à désigner les œuvres de l’esprit sous l’appellation de « contenu », glissement critiqué aussi bien par Stallman que Doctorow : jamais sans doute n’aura-t-il été aussi révélateur que dans l’expression User-Generated Content, « contenu produit par les utilisateurs », dont l’avènement dans les années 2000 a été décrit comme signe d’une « marchandisation du Web ».

Ainsi, le regard que porte le système idéologique dominant sur les multitudes d’internautes me semble osciller entre mépris et avidité, entre terreur et intérêt financier. Nous ne nous appesantirons pas ici sur l’oxymore « user-generator », retournement par lequel le public autrefois passif, devient aujourd’hui actif ; de spectateur, devient acteur ; de consommateur, devient producteur. Beaucoup s’en sont émerveillés (à juste titre), souvent avec cette tonalité d’auto-congratulation que nous évoquions plus haut ; d’autres ont fait remarquer combien l’internaute producteur de richesse intellectuelle devient force de travail volontaire, sans toujours en être conscient ; d’autres enfin soulignent que certaines formes de cette production de richesse sont à même de remettre en cause l’intégrité de notre citoyenneté — autant de critiques pertinentes et valides.

Le point sur lequel j’aimerais m’arrêter ici plus longuement est la dichotomie amateur/professionnel et l’idéologie qui la sous-tend. (C’est là un thème sur lequel nous aurons l’occasion de revenir, et que j’ai déjà tenté d’évoquer ailleurs.) Outre son arbitraire simpliste, cette division me semble révélatrice d’un Ordre social conservateur, par lequel les auteurs se voient figés dans une marginalité clairement identifiée. Un signe de ce processus (sur lequel je reviendrai prochainement) est sans doute à lire dans l’emploi immodéré du terme « artiste » parmi les discours d’industriels ou de politiques : « défendre les artistes », « aimer les artistes »… Or, là où des termes comme « musicien », « écrivain » ou « peintre » évoquent une profession, le mot « artiste » renvoie à un statut social. Ce même « statut prestigieux, comme le relèvait Barthes dans sa mythologie de l’Écrivain en vacances, que la société bourgeoise concède libéralement à ses hommes de l’esprit (pourvu qu’ils lui soient inoffensifs) ». Soyez « artistes », soyez « professionnels »… mais surtout ne sortez pas de votre case. L’on sait ce que le mot « amateur » peut avoir de méprisant ; c’est pourtant occulter le pouvoir assujettissant du mot « professionnel ».

L’amateur d’un côté, le professionnel de l’autre : les deux termes sont d’ailleurs interdépendants, et nous verrons plus bas que leur définition même, dans le dictionnaire, relève de la tautologie. Un ordre bien délimité, bien intelligible, presque « naturel » pour ainsi dire… ce même naturel, note Barthes dans l’avant-propos déjà cité, « dont la presse, l’art, le sens commun affublent une réalité qui, pour être celle dans laquelle nous vivons, n’en est pas moins parfaitement historique ». Nous avons déjà eu l’occasion de nous arrêter sur le mythe du « créateur » ; nous pourrions l’examiner d’un point de vue historique et montrer combien des concepts tels que la singularité et l’unicité de l’auteur (pour ne rien dire de la propriété) sont bien moins universels, immémoriels et impérissables qu’on ne nous le laisse accroire. Dans de nombreuses cultures (et durant une très large part de l’histoire de l’Occident chrétien) les pratiques artistiques sont d’essence rituelle et le fait même de prétendre signer une œuvre semblerait incongru, l’auteur s’estompant devant la tradition ou les divinités ; inversement, même certains auteurs (peintres, compositeurs) qui passent aujourd’hui, à juste titre, pour des individualités exceptionnelles (ou génies, pour employer un autre mythe) de ces quatre derniers siècles, travaillaient dans des conditions que je n’hésiterais pas à qualifier de proto-industrielles. En fin de compte, les pratiques culturelles de toute société ne sont qu’un épiphénomène de son Histoire.

D’un côté l’amateur, de l’autre le professionnel. Certes. Mais comment qualifier alors un citoyen qui, sans être statutairement identifié comme « créateur », s’empare d’une parole publique à laquelle il ne devrait pas « légitimement » prétendre ? On lui fabriquera un nom hybride sur mesure : ce sera le Pro-Am. Virginie Clayssen décrit ainsi cette mise à l’index, avec une jolie période : « Les Pro-Am, cible des contempteurs de blogs, des pourfendeurs de Wikipédia, des détracteurs du Crowdsourcing, cible de ceux qui disent `et voiià, maintenant, n’importe qui peut dire n’importe quoi.´ »

J’irai, pour ma part, plus loin : la simple terminologie pro-am me semble elle-même investie de l’idéologie d’ « ordre social » que j’évoquais à l’instant, délimitée d’un côté par ceux qui produisent, de l’autre par ceux qui consomment. Dans ce cadre il n’est pas anodin de souligner dans quel contexte social se produit l’avènement de l’Internet User-Generated : dans une époque où « nos » sociétés occidentales s’engoncent dans une morosité économique et où les classes sociales sont de moins en moins perméables, la figure de l’artiste est l’une des dernières images positives laissant entrevoir la possibilité d’une ascension sociale — du moins en termes de capital symbolique : les pratiques artistiques, et les possibilités de diffusion ouvertes par Internet, incarnent pour toute une classe moyenne ou défavorisée, l’espoir de « devenir quelqu’un ». (On pourra lire à cet égard un récent article du jeune auteur québecois Mathieu Arsenault, qui applique avec pertinence quelques notions de Pierre Bourdieu au paysage culturel actuel.)

C’est pourquoi cette idéologie fonctionne aussi bien dans les deux sens : au mythe des hordes d’amateur déferlant sur les rivages de la civilisation numérique, répond en miroir celui du jeune artiste « révélé » par Internet. (Étant entendu que la cause finale de toute success story digne de ce nom n’est autre que de rentrer dans le rang : une fois « révélé », le pro-am devient pro tout court et l’Ordre est enfin confirmé.) Du « Sacre de l’amateur » comme horizon ultime.

L’anecdote qui suit me semble révélatrice de cette ambivalence. Comme nous le rapporte le blog américain Techdirt, la prestigieuse guilde des auteurs de romans policiers américains (Mystery Writers of America) se refuse encore aujourd’hui à accepter parmi ses membres des auteurs qui éditent eux-même leurs ouvrages. Cela agace particulièrement un auteur reconnu tel que J.A. Konrath, qui s’en plaint abondamment sur son blog.

Son (long) commentaire mérite d’être lu attentivement. Dans un premier temps, il décrit l’isolement et le besoin de reconnaissance d’un jeune auteur, les conditions (et tarifs) drastiques pour entrer dans cette association… puis sa déception lorsqu’il se rend compte que « La MWA, une structure qui était censée exister pour venir en aide aux auteurs, semblait n’exister que pour s’alimenter elle-même. » On est ici dans un cheminement classique, qui ne devrait étonner personne s’étant déjà trouvé en rapport avec une société dite « d’auteurs ».

Critique des intermédiaires, d’un système industriel dépassé : son texte reprend nombre d’arguments développés depuis longtemps dans le milieu Libriste. Cependant nous allons voir que son raisonnement diffère sensiblement des thématiques du mouvement Libre :

En fixant des conditions d’accès fondées sur les contrats passés avec des éditeurs traditionnels, cette association cherche à n’être composée que de professionnels.

Le fait est que la plupart des ouvrages auto-édités ne sont pas très bon, et n’auraient jamais été publiés dans le système traditionnel.

Mais les temps ont changé. Il est aujourd’hui possible pour les auteurs de contourner les gardiens du temple par choix (et non parce qu’ils n’auraient pas d’autre choix). Des auteurs auto-édités peuvent vendre beaucoup de livres et se faire un paquet d’argent. L’équivalent d’un salaire à temps plein.

Pour moi, être un professionnel n’est pas autre chose.

(…) Au demeurant, je suis entièrement d’accord pour protéger les auteurs d’éditeurs peu recommandables, et pour maintenir une qualité professionnelle élevée.

Mais ces règles font que même quelqu’un comme John Locke, qui a vendu près de 1 million de livres électroniques, ne pourrait prétendre s’inscrire à la MWA.

Combien de membres de la MWA tirent donc à 1 million d’exemplaires ?

J’ai vendu près de 300 000 livres électroniques auto-édités. Mais il semble que ça n’entre pas dans la définition de « qualité professionnelle » de la MWA.

Qualité professionnelle, apparemment, veut dire : « Vous ne valez rien tant que vous ne serez pas approuvé par l’industrie. »

(…) Dans toute structure, il existe une culture du « nous d’un côté, eux de l’autre ». C’est enraciné dans le génome humain. Disciplines sportives. Clubs d’étudiants. Sociétés secrètes. Syndicats. En tant que membre d’un lieu select, on se sent spécial. Dans le pire des cas, on se sent supérieur.

J’ai une info pour vous : aucun écrivain n’est supérieur à aucun autre. Certains peuvent avoir plus de talent. D’autres, plus de chance. Mais si l’on s’acharne, jour après jour, mois après mois, sur votre ordinateur et qu’on atteint enfin le mot magique « fin », on est un écrivain.

Vous voulez faire tourner un groupe d’écrivains ? Alors incluez tout le monde. Vous voulez faire tourner un groupe d’écrivains professionnels ? Ouvrez votre dictionnaire :

professionnel. Se dit de quelqu’un qui :
a. prend part contre rétribution à une activité souvent pratiquée par les amateurs
b. exerce une profession spécifique dans le cadre d’une carrière à long terme
c. est engagé par d’autres gens moyennant rémunération

D’après le dictionnaire, il me semble que beaucoup d’écrivains auto-édités pourraient être qualifiés de professionnels.

(…) Autrefois, il fallait être validé par les gardiens du temple (c’est-à-dire avoir le cul bordé de nouilles) pour se faire de l’argent.

Aujourd’hui on peut court-circuiter les intermédiaires et atteindre directement le lecteur, et se faire au passage une marge plus importante que jamais dans l’histoire de l’imprimerie.

Je me suis cassé le cul à essayer d’être édité. Mais je ne prétends pas que le succès m’est dû. Tout métier exige de travailler dur, et ça ne garantit rien.

Je me rends compte que j’ai eu de la chance de décrocher quelques contrats traditionnels, et encore plus de chance quand l’auto-édition est devenu aussi rentable.

Ça ne fait pas de moi quelqu’un d’estimable. Ça fait de moi quelqu’un de riche.

Si, un par un, les membres de la MWA réalisaient qu’il ne doivent leur carrière et leurs contrats qu’à un coup de chance, je doute qu’ils persisteraient à exclure l’auto-édition.

Au demeurant, je ne dis pas qu’il faudrait ouvrir les portes à tout le monde. Il devrait y avoir des standards de qualité. Une association d’écrivains devrait être composée d’écrivains, pas d’imposteurs.

Aussi, quels seraient mes critères d’admission si j’étais à la tête de la MWA ?

Je n’en aurais qu’un. Prouvez-moi que vous avez vendu 5000 livres. Et l’affaire est dans le sac.

Je dirais que tirer à 5000 témoigne d’une vraie motivation « professionnelle », sans que des dinosaures-gardiens du temple n’aient leur mot à dire. Laissons les lecteurs garder le temple : ce sont eux qui ont le dernier mot de toute façon.

(…) Chacun de nous travaille dur. Chacun de nous n’écrit qu’un mot à la fois. Certains d’entre nous réussissent, la plupart échouent.

Mais nous sommes tous écrivains. Nous pouvons tous apprendre des autres, et nous aider les uns les autres.

Et nous n’avons pas besoin d’une association pour nous dire qu’une avance sur droits de 500 dollars chez un éditeur traditionnel veut dire qu’on est un pro, mais pas un chiffre d’affaires de 500 000 dollars dans l’auto-édition.

Si les ouvrages de Konrath n’ont jamais été publiés sous licences Libres, l’on sait au moins qu’il est favorable à la diffusion gratuite sur Internet et à l’auto-publication.

Cependant cet extrait nous montre aussi combien il reste attaché à la distinction amateur/professionnel, et que son raisonnement s’appuie sur une quantification entièrement marchande (l’on pourra également se référer à ce calcul et cette discussion sur le même sujet, tous deux révélateurs) qui n’est pas sans rappeler la vision de Chris Anderson que nous évoquions plus haut.

Si l’avènement d’Internet et de « la multitude » marque les esprits et semble de nature à bouleverser l’ordre établi, il se contente finalement de perpétuer (dans le meilleur des cas, au prix d’une simple redistribution des rôles), sinon l’ordre social pré-existant, du moins ses valeurs et son idéologie. De même qu’un scenario de film hollywoodien joue avec l’idée de transgression et d’incertitude, pour finalement aboutir à une conclusion où sont restaurées les valeurs morales traditionnelles, le « vertige des grands nombres » que nous procure aujourd’hui le Web n’est autre que ce frisson délicieux d’extase, d’espoir ou de terreur qui nous saisirait devant un rebondissement inattendu : nous ne sommes, après tout, qu’au milieu du film.




Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),