Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




Librologie 4 : Plain

Bonjour amis lecteurs et lectrices,

Un chapitre un peu exceptionnel pour la Librologie de cette semaine, dans de bien tristes circonstances. Je vous propose donc de réfléchir aujourd’hui au projet Gutenberg, à son fondateur Michael Hart… et à un objet mythique par excellence du monde geek : le plain-texte.

Bonne lecture à tous et à toutes ![1]

Librologie 4 : Plain

Michael HartJe précipite la publication de cette chronique (prévue pour le trimestre prochain) en apprenant à l’instant le décès de Michael Stern Hart, fondateur du Projet Gutenberg qui est la première (et sans doute la plus attachante) des bibliothèques Libres en ligne.

Au moment où j’écris ces lignes, le Projet Gutenberg s’apprête à fêter ses 40 ans — c’est-à-dire que sa naissance précède même celle du réseau Internet ! C’est le 1er décembre 1971 que tout commence, soit une bonne décennie avant l’apparition du mouvement Libre. Nous sommes à l’université d’Illinois, dont l’ordinateur central vient d’être mis en réseau avec une poignée d’autres, y compris (et c’est une grande première) au-delà du contient américain, pour former le réseau ARPANET.

Xerox-SDS Sigma 5 - Laughing Squid - CC by-ncCe jour-là le jeune Michael Hart, âgé de 24 ans, va se retrouver devant ce joyau de technologie (un Xerox-SDS Sigma V, réparti dans quatre grandes armoires, doté de 64 Ko de mémoire et de 2 Mo de stockage sur bande), pleinement conscient de l’immense faveur qui lui est accordée (le temps d’ordinateur est précieusement minuté, la moindre minute ayant un coût exorbitant). Comment être à la hauteur de cet honneur historique ? C’est en chemin que l’idée lui vient, ayant récupéré à l’épicerie du coin un prospectus où est reproduite la Déclaration d’indépendance des États-Unis d’Amérique (lesquels États-Unis s’apprêtent alors à fêter leur bicentenaire) : il va frapper un grand coup, et partager avec le monde entier un patrimoine culturel qui lui survivra et traversera les siècles.

Le projet Gutenberg prend donc vie avec ce premier texte, qui sera alors consulté par un total de… six arpanautes. Cependant Hart voit loin (l’intitulé « Gutenberg » en témoigne), et se fixe pour objectif de mettre en ligne avant la fin du siècle, les 10 000 ouvrages les plus lus au monde. Si les débuts sont laborieux (isolé et privé de toute reconnaissance académique, Hart mettra vingt ans à atteindre seulement le chiffre de 100 livres), l’objectif sera non seulement atteint mais pulvérisé à partir des années 1990, avec l’avènement du Web et de la numérisation automatisée d’ouvrages imprimés. À l’heure où j’écris ces lignes, le projet Gutenberg approche les 40 000 opus (dont certains comptent plusieurs milliers de pages) ; cependant il a été rejoint par d’innombrables initiatives similaires ou concurrentes : de Wikisource à Google Books® en passant par Internet Archive, Gallica ou Européana, l’on ne compte plus aujourd’hui les bibliothèques en ligne dont le fonds est (plus ou moins) librement accessible au public. Le réseau Internet tout entier s’est massivement transformé en vecteur de diffusion et de consommation culturelle ; P2P, MP3, streaming, podcasts, multimédia en tout genre, culte de l’image (particulièrement de l’image animée). Les livres eux-même se sont faits e-books, terme dont j’attends encore que l’on m’explique ce qu’il peut bien signifier et pourquoi on a cru bon de l’inventer — si ce n’est pour vendre, à l’occasion, des attrape-gogos numériques.

Naturellement, le projet Gutenberg n’a pas été insensible à cette évolution (qu’il a largement contribué à susciter). L’on trouvera ainsi sur la page d’un livre au hasard, la mention « eBook » largement mise en avant, ainsi que les liens suivants : Bibrec (métadonnées bibliographiques), QR Code (« Flashcode » bi-dimensionnel pour téléphone mobile), Facebook, Twitter (sans commentaire), HTML, EPUB, Kindle, Plucker, QiOO Mobile… L’on trouvera aussi, à l’occasion, des versions audio des livres en question, dans des formats Libres (Ogg Vorbis, Speex) et non-libres (MP3, Apple iTunes). On le voit, la priorité du projet Gutenberg est d’être visible et accessible (commodément) au plus grand nombre, même au prix de quelques « fautes de goût » Libristes.

Hart assume pleinement cette diversité :

Le projet Gutenberg est animé par des idées, des idéaux et un idéalisme.
Le projet Gutenberg n’est pas animé par un pouvoir financier ou politique.
De ce fait le projet Gutenberg est entièrement animé par des bénévoles.
Étant entièrement animés par des bénévoles, nous sommes réticents à toute forme d’autorité sur nos bénévoles, pour leur dire ce qu’ils doivent faire ou comment ils doivent le faire.

Nous offrons autant de libertés que possible à nos bénévoles, dans le choix des livres à partager, des formats dans lesquels les partager, ou toute autre idée qu’ils pourraient avoir quant à « la création et diffusion d’eBooks ».

Le projet Gutenberg n’a que faire d’établir des standards. Si c’était notre rôle, nous aurions accepté avec joie la proposition qui nous a été faite de convertir nos eBooks en HTML lorsque le Web était une idée toute nouvelle en 1993 ; nous nous satisfaisons d’apporter des eBooks à nos lecteurs dans tous les formats que nos bénévoles souhaitent produire.

(…) Nous encourageons les gens à nous faire parvenir des eBooks dans n’importe quel format, puis nous cherchons des bénévoles pour les convertir dans d’autres formats, et corriger peu à peu les erreurs d’édition.
(…) Nous voulons présenter au monde autant d’eBooks, dans autant de formats et en autant de langues, que possible.

Quelques formats exotiques ou propriétaires qu’il puisse proposer, rien ne me semble mieux illustrer la démarche d’accessibilité et d’universalité du projet Gutenberg que son choix, encore réaffirmé aujourd’hui, de proposer tous ses ouvrages sous forme de simples fichiers texte : dépourvus de mise en forme, d’illustrations ou de toute fioriture, ces fichiers symbolisent toute une mythologie Libriste remontant aux débuts de l’informatique, et qui est celle du plain-texte.

Plain text - oxygen-icons.org - LGPLL’expression « plain text » est de celles que l’on comprend aisément sans toutefois parvenir à la traduire de façon entièrement satisfaisante. Le projet Gutenberg propose « texte brut » ; Mozilla Thunderbird, sous la plume de Cédric Corazza, y ajoute « texte normal », plusieurs éditeurs en ligne proposent « texte pur », l’interface de Google Mail® indique « texte seul ». Wikipédia est tout aussi désemparé, juxtaposant allègrement, inspirez profondément, « fichier texte ou fichier texte brut ou fichier texte simple ou fichier ASCII »… et encore, ce n’est qu’après avoir rejeté la traduction littérale « plein texte », qui n’était pourtant pas la pire : le mot anglais plain (lui-même dérivé du vieux français) se situe en quelque sorte à mi-chemin de nos adjectifs « plan » et « plein ». Aucune de ces traductions, hélas, ne rend l’idée de dépouillement, de linéarité et (par association d’idées) de plénitude exprimée par le vieux mot français plain, qui me semblerait pourtant avoir là une magnifique occasion d’être remis en usage : ne pourrait-on pas parler de plain-texte comme l’on parle de plain-chant ?

Le plain-texte est, donc, le premier apport historique de l’informatique : pendant plusieurs décennies, les ordinateurs n’ont permis de n’échanger que cela. C’est aussi le plus fondamental — comme l’avait bien compris Michael Hart — et le plus irremplaçable : encore aujourd’hui, l’essentiel des communications numériques entre humains se fait sous forme textuelle. Courrier électronique, messagerie instantanée, commentaires sur le Web… Le plain-texte connait même, ces dernières années, un surprenant regain d’intérêt sous une forme minimale, avec la mode des micro-blogs dont nous serons amenés à reparler ici.

Il est également l’élément immatériel le plus versatile et le plus plastique : il peut servir à écrire des textes, des livres, des programmes ou des fichiers de configuration, à éditer des documents scientifiques ou des partitions musicales, voire à décrire des graphismes, des objets en trois dimensions, ou encore… à peu près tout ce que l’on veut.

Le plus robuste aussi, sans nul doute : un fichier texte corrompu ou tronqué a de meilleures chances d’être reconstitué qu’un fichier binaire. À l’utilisateur humain, le plain-texte demeure accessible et intelligible ; rassurant, somme toute. Le programmeur Douglas McIlroy, parrain de la philosophie Unix il y a un demi-siècle, ne disait pas autre chose : « n’écrivez que des programmes dont le format d’entrée est du texte pur, car c’est là une interface universelle. » Universalité certes très relative à l’époque, puisque le codage utilisé ne permet alors l’utilisation que d’un nombre restreint de caractères ; il faudra attendre les décennies suivantes pour conquérir le bas-de-casse (comme nous l’évoquions dans notre chronique sur rms), puis les caractères accentués et l’Unicode (d’ailleurs encore chaotique aujourd’hui)…

It ain’t what it used to be - revdode - CC by-nc-saLe plain-texte est, enfin, l’âme de l’informatique : binaire et code machine étant réservés aux tréfonds du bas-niveau des calculateurs, c’est sous forme de langages de programmation textuels, toujours plus naturels, que les programmeurs s’adressent et commandent à l’ordinateur… et même les simples utilisateurs qui, aujourd’hui encore, ont la patience d’apprendre à se servir d’interface textuelles, voient leur approche de l’informatique changée à jamais : dialoguer avec l’ordinateur en ligne de commande, c’est comprendre sa logique ; c’est intervenir directement dans son fonctionnement, sans la médiation factice et opaque d’une interface conçue par des humains pour un utilisateur déshumanisé, théorique et paresseux.

En un mot, le plain-texte est Libérateur : de fait, le mouvement du logiciel Libre ne milite pas pour autre chose, depuis trente ans, que d’avoir le droit d’accéder au code source, c’est-à-dire aux programmes sous une forme de plain-texte lisible et intelligible, modifiable et aisément partageable. La parenté avec la démarche du projet Gutenberg n’en est que plus frappante.

Libérateur, accessible,… mais également respectueux : un document en plain-texte ne s’impose pas à son lecteur, n’exige pas telle ou telle manière d’être lu. Il permet (dans un environnement graphique ou même en mode console) de choisir sa propre taille de texte, sa propre police (l’on préfèrera en général une fonte à espacement fixe, comme pour une machine à écrire). À l’époque où se développent les premières interactions sociales en ligne (e-mail dans les années 1970, Usenet dans les années 1980), la question ne se pose pas en ces termes : les limitations techniques (protocoles limités à l’ASCII, lenteur et coût des communications) imposent d’aller au plus court. C’est l’hégémonie, dans les années 1990, non seulement de l’HTML mais de l’informatique grand-public dite « personnelle » et des interfaces propriétaires qui remettra en cause, ô combien, ce modèle : advient le règne de la vulgarité, dont le parangon sera le mail en HTML, abomination que nous subissons encore aujourd’hui.

L’attitude, intègre et exigeante, qui consiste à préférer le plain-texte aux merveilles bling du texte soi-disant « riche », est souvent qualifiée d’élitiste ou de puriste (comme en témoigne l’expression « texte pur ») par ses détracteurs. Il ne s’agit pourtant aucunement de remettre en cause l’appropriation des outils informatiques par le plus grand nombre, ce dont on ne peut que se réjouir. Il s’agit d’une simple question de culture : de même que l’on attend de tout citoyen qu’il possède quelques références culturelles (à commencer par un minimum de grammaire écrite, ou une connaissance de base du code vestimentaire occidental), il est légitime de rappeler que notre culture d’internautes contemporains (faite de smileys, de memes, de flood, de flamewars et de troll) est le fruit de plusieurs générations de geeks qui l’ont construite sous forme purement textuelle. (Je m’empresse de préciser ici que je n’appartiens pas moi-même à cette génération, n’ayant pas eu l’usage d’un ordinateur avant le XXIe siècle.)

ASCII ArtRappeler également, car on l’oublie trop souvent, la puissance expressive du plain-texte. Je ne reviendrai pas ici sur l’ASCII Art, même si c’est un exemple frappant. Je suis davantage intéressé par la minutie avec laquelle les codeurs (programmeurs ou non) rédigent leur code source, développant de véritables traditions (coding styles) à la fois pratiques et esthétiques dans lesquelles il me semble voir une forme de langage expressif, métalinguistique et poétique — sur laquelle je ne m’attarderai pas davantage ici. Comme toute forme de communication, le plain-texte a subi au fil des décennies une exigence d’expressivité, et certaines traces en sont particulièrement visibles d’un point de vue formel : écrire en capitales signifie que l’on crie, insérer un smiley en fin de phrase dénote un ton ironique, et ainsi de suite.

Cette exigence d’expressivité influe même sur la structure du langage, qui se surcharge de signes. Un bon exemple en est la longueur des phrases, qui à l’oral importe bien moins que le ton et le propos : dans un message électronique en plain-texte au contraire, rien n’est plus cassant qu’une phrase courte et lapidaire, et l’on se surprendra fréquemment à rallonger artificiellement ses phrases pour ne point froisser son interlocuteur. Les effets de juxtaposition, également, sont frappants — particulièrement dans un courriel auquel l’on répond de façon entrelacée avec le message d’origine. Autre effet de juxtaposition — dont j’use abondamment dans ces chroniques sous forme d’hyperliens —, l’insertion d’URLs dans le discours. Enfin les retours à la ligne et effets typographiques, pour rudimentaires qu’ils soient, permettent une certaine dramatisation (au sens de dramaturgie) du discours ; je pourrais en donner un exemple.

Ici même.

Mais à quoi bon ?

***hausse les épaules***

Enfin bref.

Il ne serait donc pas totalement honnête de théoriser, comme je l’avais moi-même fait dans une première version de cet article, que le plain-texte permet d’ignorer la forme pour se concentrer sur le contenu. La forme est toujours présente, si discrète soit-elle ; la différence est qu’elle ne fait pas nécessairement sens par elle-même, et demande un minimum d’attention, autant à l’émetteur qu’au récepteur, pour lire, littéralement, entre les lignes de plain-texte.

Michael Hart et Gregory Newby - Marcello - GFDLL’illustration idéale de ce propos m’est, à nouveau, fournie par Michael Hart, virtuose du plain-texte s’il en fut — et Libriste engagé. Sur sa très modeste page web, il évoque quelques-uns des (trop prévisibles) ennuis juridiques qu’a pu subir le projet Gutenberg dans la dernière décennie, certains éditeurs traditionnels s’étant manifestement lancés dans une croisade contre le domaine public et l’intérêt général. Il faut lire les réponses rédigées — toutes en plain-texte, évidemment — par Hart et son bras droit Gregory Newby aux mises en demeure d’éditeurs outragés : à la fois polies, implacables… et d’une ironie mordante : un exemple à suivre. La réponse de Hart concernant le livre Anthem, en particulier, est à lire à tout prix : outre son flegme et son exactitude juridique, chaque ligne fait exactement le même nombre de caractères, le tour de force par excellence de tout geek qui se respecte…

Telle est la leçon, et le souvenir, que nous laisse Michael Hart : celui d’une époque, d’un esprit où la rigueur se mêle à l’ambition et la fantaisie, où l’économie de moyens n’empêche point l’élégance et l’humour, et où, enfin, l’attrait de la nouveauté ne laisse pas s’estomper l’Histoire et le genre humain dans son ensemble.

To Michael S. Hart, a plain human being.




Librologie 3 : User-generated multitude

Bonjour à tous, bonjour à toutes,

Après deux premières Librologies en forme de portrait, je vous propose aujourd’hui de commencer à aborder le domaine des pratiques culturelles Libres, qui est la motivation d’origine de ces chroniques.

C’est l’occasion de revenir sur quelques thématiques évoquées précédemment avec l’épisode rms, mais également d’introduire d’autres problèmes que nous serons amenés à retrouver au fil des semaines.

Bonne lecture, et à la semaine prochaine…

Librologie 3 : User-generated multitude

La chronique que je vous propose aujourd’hui a déjà été écrite pour moi, au moins en partie, par l’enseignant-chercheur Olivier Ertzscheid, qui a récemment été frappé, tout comme moi (et des millions d’internautes), par le diagramme suivant :

In 60 seconds - Go-Globe.com

Son commentaire, brillamment intitulé L’imaginaire numéraire du numérique, mérite d’être lu en entier. En voici quelques fragments (où l’on notera d’ailleurs une allusion à Roland Barthes) :

Le vertige des grands nombres est constitutif de la statistique du web, formidable écosystème facilitateur et multiplicateur de la moindre interaction, de la moindre navigation, de la moindre publication, de la moindre attention portée. Les chiffres de Facebook sont donc pareillement vertigineux, comme sont vertigineux ceux de Google, de Youtube et de l’ensemble de ces mégalopoles virtuelles dans lesquelles se croisent, chaque jour, deux milliards d’internautes. (…)

Ces chiffres contribuent également à nourrir un imaginaire collectif qui, incapable de littéralement se représenter « ce que représente » le traitement computationnel de 57 milliards d’interactions comme on est incapable, dans l’instant, de se représenter « ce que représente » la fortune de Liliane Bettancourt à l’échelle de notre salaire mensuel, ces chiffres, disais-je, contribuent également à nourrir un imaginaire collectif réduit à choisir l’extase statistique comme seul argumentaire de la construction de son horizon critique. (…)

2 milliards d’internautes mais 6 miliards d’êtres humains. Or avez-vous vu récemment une infographie sur le nombre de véhicules circulant chaque jour sur le périphérique parisien ou new-yorkais ? Voit-on se multiplier les infographies sur le nombre de coups de fils passés chaque jour dans le monde ? Sur le nombre de litres d’essence consommés chaque jour dans chaque pays ? Sur le nombre de feuilles de papier sortant chaque jour des imprimantes domestiques ? On sait que là aussi les chiffres seraient vertigineux. Mais ces chiffres là ne nous fascinent plus. L’écosystème qu’ils décrivent est « tangible », lourdement, tristement et désespérement tangible. (…)

Le chiffre, les chiffres de l’internet renvoient donc à des effets de sidération qui participent d’une atténuation de l’effet de réel des entités qu’ils décrivent en même temps qu’ils renforcent le pouvoir symbolique des grandes firmes du web. (…) La mythologie de l’internet – au sens des mythologies de Barthes – est construite sur ces chiffres renvoyant à une nouvelle Babel statistique.

Puisqu’Olivier Ertzscheid nous y invite, relisons les Mythologies de Barthes, et tentons par exemple de mettre en balance ce nouvel imaginaire vertigineux des très grands nombres auquel donne lieu Internet, avec la rhétorique de la computabilité et de la quantifiabilité que Roland Barthes observait chez la petite-bourgeoisie poujadiste de son temps (état d’esprit dont nous avons vu qu’il est toujours à l’œuvre aujourd’hui) : « l’infini du monde est conjuré, écrit-il dans son texte sur Poujade déjà cité, (…) toute une mathématique de l’équation rassure le petit-bourgeois, lui fait un monde à la mesure de son commerce ».

M. Ertzscheid n’a pas tort de parler d’une « extase statistique » (d’ailleurs souvent en forme d’auto-congratulation), cependant il s’en faut de peu pour que l’extase cède le pas (en particulier dans certains milieux traditionnellement légitimés) à un sentiment de terreur. Un chiffre concevable fait un argument publicitaire efficace, un chiffre inconcevable effraie. On peut nous vendre, sur des affiches de vingt mètres carrés, tel grand concert dans un stade sportif, avec « 500 musiciens, 200 artistes sur scène », mais on a renoncé depuis longtemps à nous vendre tel film comme ayant nécessité « 200 millions de dollars, 50 000 figurants » et ainsi de suite.

Lorsqu’il cesse d’être concevable pour devenir « sidérant », lorsqu’il ne réduit plus le monde à une donnée appréhensible mais évoque au contraire son ampleur, le chiffre n’est plus un nombre, mais une image : on ne s’appuie plus dessus pour argumenter, mais pour frapper les esprits. Cela n’a pas échappé à un autre enseignant-chercheur, André Gunthert, qui rebondit sur l’analyse de Ertzscheid pour critiquer un ouvrage de Patrice Flichy intitulé Le Sacre de l’amateur, et dont les premières lignes donnent (mal ?) le ton :

Les quidams ont conquis Internet. Cent millions de blogs existent dans le monde. Cent millions de vidéos sont visibles sur YouTube. En France, Wikipédia réunit un million d’articles, et dix millions de blogs ont été créés. Un quart des internautes a déjà signé une pétition en ligne. Ces quelques chiffres illustrent un phénomène essentiel : le web contemporain est devenu le royaume des amateurs.

Ce qui définit l’amateur, c’est donc sa multitude indéterminée (par opposition, imagine-t-on, à la singularité du « professionnel » — j’y reviens à l’instant). Dans un autre ouvrage plus ancien au titre similaire (Le Culte de l’Amateur, également remarqué par Gunthert), l’entrepreneur américain Andrew Keen est même nettement plus vindicatif :

Voici l’ère où la musique que nous écouterons viendra de groupes amateurs dans des garages, les films que nous verrons viendront d’un YouTube amélioré, et les actualités, faite de potins mondains survitaminés, nous seront servies comme une garniture autour de la pub. Voilà ce qui arrive lorsque l’ignorance se joint à l’égoïsme qui se joint lui-même à la loi de la foule.

Les invasions barbares, réactualisation d’un mythe. Cependant, est-ce vraiment là la seule attitude possible ? Autre entrepreneur américain, Chris Anderson a montré avec ses travaux sur la « longue traîne » et l’économie de la gratuité que l’avènement des « multitudes » sur le Web pouvait permettre l’émergence de modèles éminement rentables.

À condition, évidemment, de savoir quoi vendre. Nous parlions récemment de ce glissement linguistique qui consiste à désigner les œuvres de l’esprit sous l’appellation de « contenu », glissement critiqué aussi bien par Stallman que Doctorow : jamais sans doute n’aura-t-il été aussi révélateur que dans l’expression User-Generated Content, « contenu produit par les utilisateurs », dont l’avènement dans les années 2000 a été décrit comme signe d’une « marchandisation du Web ».

Ainsi, le regard que porte le système idéologique dominant sur les multitudes d’internautes me semble osciller entre mépris et avidité, entre terreur et intérêt financier. Nous ne nous appesantirons pas ici sur l’oxymore « user-generator », retournement par lequel le public autrefois passif, devient aujourd’hui actif ; de spectateur, devient acteur ; de consommateur, devient producteur. Beaucoup s’en sont émerveillés (à juste titre), souvent avec cette tonalité d’auto-congratulation que nous évoquions plus haut ; d’autres ont fait remarquer combien l’internaute producteur de richesse intellectuelle devient force de travail volontaire, sans toujours en être conscient ; d’autres enfin soulignent que certaines formes de cette production de richesse sont à même de remettre en cause l’intégrité de notre citoyenneté — autant de critiques pertinentes et valides.

Le point sur lequel j’aimerais m’arrêter ici plus longuement est la dichotomie amateur/professionnel et l’idéologie qui la sous-tend. (C’est là un thème sur lequel nous aurons l’occasion de revenir, et que j’ai déjà tenté d’évoquer ailleurs.) Outre son arbitraire simpliste, cette division me semble révélatrice d’un Ordre social conservateur, par lequel les auteurs se voient figés dans une marginalité clairement identifiée. Un signe de ce processus (sur lequel je reviendrai prochainement) est sans doute à lire dans l’emploi immodéré du terme « artiste » parmi les discours d’industriels ou de politiques : « défendre les artistes », « aimer les artistes »… Or, là où des termes comme « musicien », « écrivain » ou « peintre » évoquent une profession, le mot « artiste » renvoie à un statut social. Ce même « statut prestigieux, comme le relèvait Barthes dans sa mythologie de l’Écrivain en vacances, que la société bourgeoise concède libéralement à ses hommes de l’esprit (pourvu qu’ils lui soient inoffensifs) ». Soyez « artistes », soyez « professionnels »… mais surtout ne sortez pas de votre case. L’on sait ce que le mot « amateur » peut avoir de méprisant ; c’est pourtant occulter le pouvoir assujettissant du mot « professionnel ».

L’amateur d’un côté, le professionnel de l’autre : les deux termes sont d’ailleurs interdépendants, et nous verrons plus bas que leur définition même, dans le dictionnaire, relève de la tautologie. Un ordre bien délimité, bien intelligible, presque « naturel » pour ainsi dire… ce même naturel, note Barthes dans l’avant-propos déjà cité, « dont la presse, l’art, le sens commun affublent une réalité qui, pour être celle dans laquelle nous vivons, n’en est pas moins parfaitement historique ». Nous avons déjà eu l’occasion de nous arrêter sur le mythe du « créateur » ; nous pourrions l’examiner d’un point de vue historique et montrer combien des concepts tels que la singularité et l’unicité de l’auteur (pour ne rien dire de la propriété) sont bien moins universels, immémoriels et impérissables qu’on ne nous le laisse accroire. Dans de nombreuses cultures (et durant une très large part de l’histoire de l’Occident chrétien) les pratiques artistiques sont d’essence rituelle et le fait même de prétendre signer une œuvre semblerait incongru, l’auteur s’estompant devant la tradition ou les divinités ; inversement, même certains auteurs (peintres, compositeurs) qui passent aujourd’hui, à juste titre, pour des individualités exceptionnelles (ou génies, pour employer un autre mythe) de ces quatre derniers siècles, travaillaient dans des conditions que je n’hésiterais pas à qualifier de proto-industrielles. En fin de compte, les pratiques culturelles de toute société ne sont qu’un épiphénomène de son Histoire.

D’un côté l’amateur, de l’autre le professionnel. Certes. Mais comment qualifier alors un citoyen qui, sans être statutairement identifié comme « créateur », s’empare d’une parole publique à laquelle il ne devrait pas « légitimement » prétendre ? On lui fabriquera un nom hybride sur mesure : ce sera le Pro-Am. Virginie Clayssen décrit ainsi cette mise à l’index, avec une jolie période : « Les Pro-Am, cible des contempteurs de blogs, des pourfendeurs de Wikipédia, des détracteurs du Crowdsourcing, cible de ceux qui disent `et voiià, maintenant, n’importe qui peut dire n’importe quoi.´ »

J’irai, pour ma part, plus loin : la simple terminologie pro-am me semble elle-même investie de l’idéologie d’ « ordre social » que j’évoquais à l’instant, délimitée d’un côté par ceux qui produisent, de l’autre par ceux qui consomment. Dans ce cadre il n’est pas anodin de souligner dans quel contexte social se produit l’avènement de l’Internet User-Generated : dans une époque où « nos » sociétés occidentales s’engoncent dans une morosité économique et où les classes sociales sont de moins en moins perméables, la figure de l’artiste est l’une des dernières images positives laissant entrevoir la possibilité d’une ascension sociale — du moins en termes de capital symbolique : les pratiques artistiques, et les possibilités de diffusion ouvertes par Internet, incarnent pour toute une classe moyenne ou défavorisée, l’espoir de « devenir quelqu’un ». (On pourra lire à cet égard un récent article du jeune auteur québecois Mathieu Arsenault, qui applique avec pertinence quelques notions de Pierre Bourdieu au paysage culturel actuel.)

C’est pourquoi cette idéologie fonctionne aussi bien dans les deux sens : au mythe des hordes d’amateur déferlant sur les rivages de la civilisation numérique, répond en miroir celui du jeune artiste « révélé » par Internet. (Étant entendu que la cause finale de toute success story digne de ce nom n’est autre que de rentrer dans le rang : une fois « révélé », le pro-am devient pro tout court et l’Ordre est enfin confirmé.) Du « Sacre de l’amateur » comme horizon ultime.

L’anecdote qui suit me semble révélatrice de cette ambivalence. Comme nous le rapporte le blog américain Techdirt, la prestigieuse guilde des auteurs de romans policiers américains (Mystery Writers of America) se refuse encore aujourd’hui à accepter parmi ses membres des auteurs qui éditent eux-même leurs ouvrages. Cela agace particulièrement un auteur reconnu tel que J.A. Konrath, qui s’en plaint abondamment sur son blog.

Son (long) commentaire mérite d’être lu attentivement. Dans un premier temps, il décrit l’isolement et le besoin de reconnaissance d’un jeune auteur, les conditions (et tarifs) drastiques pour entrer dans cette association… puis sa déception lorsqu’il se rend compte que « La MWA, une structure qui était censée exister pour venir en aide aux auteurs, semblait n’exister que pour s’alimenter elle-même. » On est ici dans un cheminement classique, qui ne devrait étonner personne s’étant déjà trouvé en rapport avec une société dite « d’auteurs ».

Critique des intermédiaires, d’un système industriel dépassé : son texte reprend nombre d’arguments développés depuis longtemps dans le milieu Libriste. Cependant nous allons voir que son raisonnement diffère sensiblement des thématiques du mouvement Libre :

En fixant des conditions d’accès fondées sur les contrats passés avec des éditeurs traditionnels, cette association cherche à n’être composée que de professionnels.

Le fait est que la plupart des ouvrages auto-édités ne sont pas très bon, et n’auraient jamais été publiés dans le système traditionnel.

Mais les temps ont changé. Il est aujourd’hui possible pour les auteurs de contourner les gardiens du temple par choix (et non parce qu’ils n’auraient pas d’autre choix). Des auteurs auto-édités peuvent vendre beaucoup de livres et se faire un paquet d’argent. L’équivalent d’un salaire à temps plein.

Pour moi, être un professionnel n’est pas autre chose.

(…) Au demeurant, je suis entièrement d’accord pour protéger les auteurs d’éditeurs peu recommandables, et pour maintenir une qualité professionnelle élevée.

Mais ces règles font que même quelqu’un comme John Locke, qui a vendu près de 1 million de livres électroniques, ne pourrait prétendre s’inscrire à la MWA.

Combien de membres de la MWA tirent donc à 1 million d’exemplaires ?

J’ai vendu près de 300 000 livres électroniques auto-édités. Mais il semble que ça n’entre pas dans la définition de « qualité professionnelle » de la MWA.

Qualité professionnelle, apparemment, veut dire : « Vous ne valez rien tant que vous ne serez pas approuvé par l’industrie. »

(…) Dans toute structure, il existe une culture du « nous d’un côté, eux de l’autre ». C’est enraciné dans le génome humain. Disciplines sportives. Clubs d’étudiants. Sociétés secrètes. Syndicats. En tant que membre d’un lieu select, on se sent spécial. Dans le pire des cas, on se sent supérieur.

J’ai une info pour vous : aucun écrivain n’est supérieur à aucun autre. Certains peuvent avoir plus de talent. D’autres, plus de chance. Mais si l’on s’acharne, jour après jour, mois après mois, sur votre ordinateur et qu’on atteint enfin le mot magique « fin », on est un écrivain.

Vous voulez faire tourner un groupe d’écrivains ? Alors incluez tout le monde. Vous voulez faire tourner un groupe d’écrivains professionnels ? Ouvrez votre dictionnaire :

professionnel. Se dit de quelqu’un qui :
a. prend part contre rétribution à une activité souvent pratiquée par les amateurs
b. exerce une profession spécifique dans le cadre d’une carrière à long terme
c. est engagé par d’autres gens moyennant rémunération

D’après le dictionnaire, il me semble que beaucoup d’écrivains auto-édités pourraient être qualifiés de professionnels.

(…) Autrefois, il fallait être validé par les gardiens du temple (c’est-à-dire avoir le cul bordé de nouilles) pour se faire de l’argent.

Aujourd’hui on peut court-circuiter les intermédiaires et atteindre directement le lecteur, et se faire au passage une marge plus importante que jamais dans l’histoire de l’imprimerie.

Je me suis cassé le cul à essayer d’être édité. Mais je ne prétends pas que le succès m’est dû. Tout métier exige de travailler dur, et ça ne garantit rien.

Je me rends compte que j’ai eu de la chance de décrocher quelques contrats traditionnels, et encore plus de chance quand l’auto-édition est devenu aussi rentable.

Ça ne fait pas de moi quelqu’un d’estimable. Ça fait de moi quelqu’un de riche.

Si, un par un, les membres de la MWA réalisaient qu’il ne doivent leur carrière et leurs contrats qu’à un coup de chance, je doute qu’ils persisteraient à exclure l’auto-édition.

Au demeurant, je ne dis pas qu’il faudrait ouvrir les portes à tout le monde. Il devrait y avoir des standards de qualité. Une association d’écrivains devrait être composée d’écrivains, pas d’imposteurs.

Aussi, quels seraient mes critères d’admission si j’étais à la tête de la MWA ?

Je n’en aurais qu’un. Prouvez-moi que vous avez vendu 5000 livres. Et l’affaire est dans le sac.

Je dirais que tirer à 5000 témoigne d’une vraie motivation « professionnelle », sans que des dinosaures-gardiens du temple n’aient leur mot à dire. Laissons les lecteurs garder le temple : ce sont eux qui ont le dernier mot de toute façon.

(…) Chacun de nous travaille dur. Chacun de nous n’écrit qu’un mot à la fois. Certains d’entre nous réussissent, la plupart échouent.

Mais nous sommes tous écrivains. Nous pouvons tous apprendre des autres, et nous aider les uns les autres.

Et nous n’avons pas besoin d’une association pour nous dire qu’une avance sur droits de 500 dollars chez un éditeur traditionnel veut dire qu’on est un pro, mais pas un chiffre d’affaires de 500 000 dollars dans l’auto-édition.

Si les ouvrages de Konrath n’ont jamais été publiés sous licences Libres, l’on sait au moins qu’il est favorable à la diffusion gratuite sur Internet et à l’auto-publication.

Cependant cet extrait nous montre aussi combien il reste attaché à la distinction amateur/professionnel, et que son raisonnement s’appuie sur une quantification entièrement marchande (l’on pourra également se référer à ce calcul et cette discussion sur le même sujet, tous deux révélateurs) qui n’est pas sans rappeler la vision de Chris Anderson que nous évoquions plus haut.

Si l’avènement d’Internet et de « la multitude » marque les esprits et semble de nature à bouleverser l’ordre établi, il se contente finalement de perpétuer (dans le meilleur des cas, au prix d’une simple redistribution des rôles), sinon l’ordre social pré-existant, du moins ses valeurs et son idéologie. De même qu’un scenario de film hollywoodien joue avec l’idée de transgression et d’incertitude, pour finalement aboutir à une conclusion où sont restaurées les valeurs morales traditionnelles, le « vertige des grands nombres » que nous procure aujourd’hui le Web n’est autre que ce frisson délicieux d’extase, d’espoir ou de terreur qui nous saisirait devant un rebondissement inattendu : nous ne sommes, après tout, qu’au milieu du film.




Librologie 2 : Linus a gagné

Bonjour à tous et à toutes, ami(e)s du Framablog !

Par un heureux hasard du calendrier, la publication de cette nouvelle chronique Librologique coïncide avec le vingtième anniversaire du noyau Linux. Après nous être intéressés à Richard Stallman, c’est donc le moment idéal pour nous pencher sur une autre personnalité marquante du logiciel Libre… Quant à moi, je vous retrouve la semaine prochaine… et d’ici là, dans les commentaires !

V. Villenave.

Librologie 2 : Linus a gagné

Martin Streicher_- CC by-sa - Wikimedia CommonsIl y a tout juste vingt ans, un jeune étudiant en informatique finlandais, Linus Torvalds[1], publie un bout de programme qui deviendra plus tard le noyau du système d’exploitation le plus répandu au monde.

Plus ou moins fortuite, cette édification se fera par tâtonnements mais Linus sait ce qu’il veut et ne se prive pas de le faire savoir : au fil des ans, il se fera remarquer par un nombre impressionnant de citations toujours abruptes, souvent désopilantes, qui en sont venues à constituer sa marque de fabrique, voire sa persona : lire un message de Linus sans pique ni acidité, est toujours décevant.

Parmi ses souffre-douleurs de prédilection, on trouve des programmes (Emacs, GNOME), des techniques de programmation (le langage C++, les micronoyaux, le système de fichiers HFS+), et des entreprises (SCO, Oracle, Microsoft). Il est particulièrement réjouissant pour tout Libriste de voir Torvalds s’en prendre à l’empire de Microsoft, dont la domination hégémonique sur les systèmes d’exploitation remonte aux origines de l’informatique personnelle (et dont la haine des principes Libres n’est plus à démontrer) :

Je vous assure que mon but n’est pas de détruire Microsoft. Ce sera un effet collatéral tout à fait involontaire.

Ou, dans un même ordre d’idées :

Le jour où Microsoft développera des applications pour Linux, cela voudra dire que j’aurai gagné.

Le noyau Linux a donc été fondé il y a plus de vingt ans, et vient d’atteindre sa troisième version majeure. Se combinant avec d’autres programmes du projet GNU, il forme le système d’exploitation GNU/Linux qui s’est répandu dans le monde, particulièrement dans les domaines des serveurs et des supercalculateurs, qu’il domine très largement. Sous une forme plus réduite, le noyau Linux est également embarqué dans la grande majorité des équipements informatiques domestiques et professionnels : télévisions, box Internet, ordinateurs de bord… Enfin il s’est aussi emparé des téléphones mobiles, en particulier avec le système Android développé par l’entreprise Google.

Ce dernier point est d’une actualité brûlante, puisqu’Android est en pleine ascension et dépasse à la fois les mobiles proposés par Microsoft et les iPhone® d’Apple. Les applications Android se multiplient et sont devenues un format de distribution incontournable… y compris pour les concurrents de Google… ce qui inclut Microsoft.

Ce qui nous renvoie, comme l’ont remarqué de nombreux commentateurs ces derniers jours, à la citation que nous évoquions à l’instant :

Android Market - Microsoft

Le paysage a changé. Les marchés à conquérir ne se situent plus sur le bureau des utilisateurs, mais dans les téléphones portables et le « nuage » des services Internet. Microsoft n’a plus, aujourd’hui, d’autre choix que de présenter des applications pour Android, et même de contribuer au code de Linux. Il tire davantage de profit des ventes d’Android que de son propre système d’exploitation mobile.

En d’autres termes, nous y sommes : Linus a gagné.

Ce qui explique l’enthousiasme des Libristes et inconditionnels de l’open source. Le projet Linux, rappelons-le, est développé par une communauté d’informaticiens du monde entier, dont beaucoup sont financés par de grandes entreprises (voir plus bas), mais dont une proportion conséquente est faite de bénévoles qui gagnent leur vie dans des domaines parfois étrangers à l’informatique. De là à voir en la personne de Linus Torvalds un hérault du pro-am il n’y a qu’un pas : la victoire de Linus sur Microsoft serait ainsi une revanche de l’illégitimité.

Joie et liesse : Linus a gagné.

Certes, mais à quel prix ?

D’un point de vue technique, le système Android est certes construit sur le noyau Linux, mais il y apporte une surcouche sous une licence différente, qui ne garantit pas la réciprocité du logiciel Libre digne de ce nom. Des commentateurs ont d’ailleurs fait remarquer combien le développement d’Android diffère de celui de Linux en particulier, et des logiciels Libres en général.

D’un point de vue éthique, le noyau Linux est resté sous la version 2 de la licence GPL, ce qui autorise bien des abus d’un point de vue Libriste : des versions modifiées peuvent en être distribuées sans nécessairement rendre publiques lesdites modifications, les serveurs sous GNU/Linux servent à des sites qui privatisent les données, et assujettissent leurs utilisateurs. Linux a sans doute « gagné », mais certainement pas les libertés civiques — même si le PDG de la Linux Foundation s’en défend.

Linux Mask - Linus TorvaldsCe qui nous invite à nous interroger sur les modalités d’expression de la persona publique de Linus Torvalds. D’une génération (et d’une culture politique) différente de celle de Richard Stallman, il s’oppose volontiers à ce dernier, notamment sur le plan terminologique (dont nous avons vu combien il importe à rms). Parangon du mouvement open source, il se construit une persona inversée (et donc symétrique) de celle de Stallman, et se décrit complaisamment comme non-idéologue et « pragmatiste » — qualificatif que Stallman lui-même, paradoxalement, revendique également — nous y reviendrons.

Attardons-nous un instant sur cette posture à travers trois fragments relativement longs du discours de Torvalds, dont nous allons voir qu’il va bien au-delà des citations-choc.

Je ne crois pas qu’il y ait d’idéologie (dans le projet Linux), et je ne crois pas qu’il *devrait* y avoir d’idéologie. Et ce qui compte ici, c’est le singulier — je pense qu’il peut exister *beaucoup* d’idéologies. Je le fais pour mes propres raisons, d’autres gens le font pour les leurs. Je pense que le monde est un endroit compliqué, et que les gens sont des animaux intéressants et compliqués qui entreprennent des choses pour des raisons complexes. Et c’est pour cela que je ne crois pas qu’il devrait y avoir *une* idéologie. Je pense qu’il est très rafraîchissant de voir des gens travailler sur Linux parce qu’ils peuvent rendre le monde meilleur en propageant la technologie et en la rendant accessible à plus de monde — et ils pensent que l’open source est un bon moyen d’accomplir cela. C’est _une_ idéologie. Et une excellente, pour moi. Ce n’est pas vraiment pour cette raison que j’ai entrepris Linux moi-même, mais cela me réchauffe le cœur de le voir utilisé en ce sens. Mais je pense _aussi_ qu’il est génial de voir toutes ces entreprises commerciales utiliser de l’open source tout simplement parce que c’est bon pour les affaires. C’est une idéologie entièrement différente, et je pense qu’elle est, elle aussi, parfaitement acceptable. Le monde serait _nettement_ pire si l’on n’avait pas d’entreprises réalisant des choses pour de l’argent. Aussi, la seule idéologie qui m’inspire vraiment du mépris et de l’aversion est celle qui consiste à exclure toutes les autres. Je méprise les gens dont l’idéologie est « la seule véritable », et pour qui s’éloigner de ces règles morales en particulier est « mal » ou « malfaisant ». Pour moi, c’est juste mesquin et stupide. Donc, le plus important dans l’open source, n’est pas l’idéologie — il s’agit simplement que tout le monde puisse l’utiliser pour ses propres besoins et ses propres raisons. La licence de copyright sert à maintenir en vie cette notion d’ouverture, et à s’assurer que le projet ne se fragmente pas au fil des gens qui garderaient cachées leur améliorations, et donc doivent ré-inventer ce qu’ont fait les autres. Mais la licence n’est pas là pour imposer telle ou telle idéologie.

Ces propos de Torvalds méritent d’être ici reproduits in extenso. Tout d’abord parce qu’ils suffisent à mettre en mouvement notre détecteur de mythes : on y retrouve une vision prétendument « naturelle » des choses, ainsi qu’une propension à s’abstraire de toute implication ou responsabilité éthique : « le mythe, écrit Roland Barthes, est une parole dépolitisée ». Et de fait, il n’est pas rare qu’un discours qui rejette toute idéologie ait pour fonction de masquer une idéologie sous-jacente, le plus souvent contre-révolutionnaire : nous y reviendrons prochainement.

Est-ce le cas ici ? Linus Torvalds prête certainement le flanc à de telles accusations, en particulier dans ses rapports vis-à-vis des grandes entreprises (le développement de Linux, et le salaire de Linus lui-même, a fait l’objet de nombreux financements d’entreprises, en particulier IBM).

Cependant son point de vue ne me semble pas dépourvu d’ambiguïtés : ainsi, loin de les rejeter, il prend acte des motivations « idéologiques » de certains contributeurs et utilisateurs, et s’en déclare même proche.

Autre ambiguïté primordiale : Torvalds est, et demeure, cet informaticien brillant qui prit un jour la décision, là où rien ne l’y obligeait, de publier son travail sous une licence Libre (la GPL), dans le but explicite d’ouvrir au monde entier, sans distinction de provenance ni de capital, des outils techniques (et par extension, une forme de connaissance, comme nous allons également le voir) :

À l’origine, explique-t-il en 1997, j’avais publié Linux et son code source complet sous un copyright qui était en fait bien plus contraignant que la GPL : il n’autorisait aucun échange d’argent quel qu’il soit (c’est-à-dire que non seulement je ne voulais pas essayer d’en tirer profit moi-même, mais j’interdisais à quiconque de le faire).

(…)

Je voulais que Linux soit aisément disponible sur ftp, et je voulais qu’il ne soit onéreux pour _personne_. (…) Je ne me sentais pas rassuré vis-à-vis de la GPL au début, mais je voulais témoigner ma reconnaissance pour le compilateur GCC (du projet GNU) dont Linux dépendait, et qui était bien sûr GPL.

Rendre Linux GPL est sans aucun doute la meilleure chose que j’aie jamais faite.

Les paradoxes ne manquent pas ici, à commencer par cette reconnaissance qu’exprime spontanément Linux Torvalds envers le projet GNU, lui qui se refusera pourtant toujours à dire « GNU/Linux » plutôt que seulement « Linux » pour désigner le système d’exploitation Libre… Autre paradoxe intéressant au plus haut point : nous voyons ici que c’est la licence GNU GPL qui est venue libérer Linus lui-même de ses craintes, en particulier vis-à-vis de l’exploitation commerciale de son travail.

Le dernier fragment sur lequel je voudrais m’arrêter ici est une interview recueillie dix ans plus tard, sur laquelle Torvalds revient sur sa (non-) « idéologie » personnelle :

Je pense que l’open source est la bonne voie à suivre, de la même façon que je préfère la science à l’alchimie : tout comme la science, l’open source permet aux gens d’ajouter leur pierre à l’édifice solide de la connaissance pré-existante, plutôt que de se cacher de manière ridicule.

Cependant je ne crois pas qu’il faille considérer l’alchimie comme « malfaisante ». Elle est juste hors de propos : on ne pourra évidemment jamais réussir aussi bien barricadé chez soi qu’au grand jour avec des méthodes scientifiques.

C’est pourquoi la FSF (de Richard Stallman) et moi divergeons sur des notions fondamentales. J’adore absolument la GPL version 2 — qui incarne ce modèle de « développer au grand jour ». Avec la GPL v.2, nous tenions quelque chose où tout le monde pouvait se retrouver et partager selon ce modèle.

Mais la FSF semble vouloir changer ce modèle, et les ébauches de la GPL version 3 ne servent plus à développer du code au grand jour mais à déterminer ce que l’on peut faire de ce code. Pour reprendre l’exemple de la science, cela reviendrait à dire que non seulement la science doit être ouverte et validée par des pairs, mais qu’en plus on vous interdit de vous en servir pour fabriquer une bombe.

Et ce dernier exemple de « fabriquer des bombes » donne lieu, à son tour, à un nouveau paradoxe : les arguments soulevés ici par le créateur du noyau Linux trouvent un écho frappant dans certaines prises de position de… Richard Stallman. J’en veux pour illustration la critique toute pragmatique que fait la FSF d’une licence « Hacktiviste », la HESSLA, dont le propos est précisément d’interdire tout usage des logiciels qui ne serait pas conforme aux droits de l’Homme (dans un même ordre d’idées, on lira avec intérêt la licence CrimethInc. N© !, que je découvre à l’instant et qui vaut également son pesant de cacahuètes). Un autre exemple du pragmatisme de Stallman est à trouver dans la migration de Wikipédia vers les licences Creative Commons en 2008.

Le pragmatisme n’est donc pas nécessairement une posture de mercenaire, et le discours de Linus Torvalds (particulièrement si on le considère sur les deux décennies écoulées) me semble plus ambigu que celui d’un programmeur sans éthique ou d’un entrepreneur sans foi ni loi. Certes, Torvalds n’est ni un intellectuel ni un philosophe, et sa culture politique semble celle d’un simple spectateur. Cependant son propos apparaît comme pleinement politique, même lorsqu’il s’agit d’affirmer la neutralité idéologique du code qu’il écrit :

Je n’aime pas les DRM moi-même, mais en fin de compte je me vois comme un « Oppenheimer ». Je refuse que Linux soit un enjeu politique, et je pense que les gens peuvent utiliser Linux pour tout ce qu’ils veulent — ce qui inclut certainement des choses que je n’approuve pas personnellement.

La GPL exige qu’on publie les sources du noyau, mais ne limite pas ce qu’on peut faire avec le noyau. Dans l’ensemble, ceci est un exemple de plus de ce pourquoi rms me traite de « seulement un ingénieur », et pense que je n’ai pas d’idéaux.

(En ce qui me concerne, ce serait plutôt une vertu : essayer d’améliorer le monde un tant soit peu sans essayer d’imposer ses propres valeurs morales aux autres. Vous pouvez faire ce qui vous chante, je m’en fous, je suis seulement un ingénieur qui veut faire le meilleur système d’exploitation possible.)

Cette position me renvoie à la phrase faussement attribuée à Voltaire sur la liberté d’expression (« je ne suis pas d’accord avec ce que vous dites, mais je me battrai jusqu’à la mort pour que vous ayez le droit de le dire »), et qui est en fait d’origine anglo-saxonne. L’on sait combien cet esprit post-Lumières (d’ailleurs plus ou moins bien compris), qui défend la liberté comme un absolu, est important aux États-Unis : peut-être n’est-ce pas un hasard si c’est dans ce pays qu’est né le mouvement Libre… Et si c’est de ce même pays que Torvalds a récemment acquis la nationalité.

Alors, Linus a-t-il gagné ? Pour un personnage aussi marquant et aussi vocal, il est étrange qu’on ne l’ait que très peu entendu s’exprimer sur l’avènement d’Android. La sortie du noyau Linux version 3, coincidant avec le 20e anniversaire du projet, s’est faite dans le calme et avec une humilité remarquable, et j’avoue n’avoir vu passer aucun message de Linus Torvalds revendiquant sa « victoire » — laquelle est pourtant acquise et incontestable, pour douce-amère qu’elle puisse être par ailleurs.

Linux a gagné, mais seulement en se rendant acceptable par les entreprises : c’est-à-dire sous une forme dégradée, aseptisée, dépolitisée dirait Barthes, débarrassée du « bazar » idéologique que représente le mouvement Libre, et que d’aucuns (à commencer par Richard Stallman) voient comme essentiel. Essentiel d’un point de vue intellectuel, puisque le mouvement Libre se pense originellement comme un mouvement social ; primordial également d’un point de vue affectif, le logiciel et la culture Libre reposant souvent sur des communautés de bénévoles dont la motivation n’est jamais tout à fait exempte de composantes idéalistes ou romantiques — et auxquelles Linus lui-même, nous l’avons vu, n’a pas toujours été étranger.

Ce sont ces valeurs et cet esprit que voile, sous l’aspect d’une victoire technique, l’avènement du noyau Linux sous ses avatars et déclinaisons plus ou moins lointaines. Et la victoire que promettait le jeune Linus d’il y a vingt ans, semble aujourd’hui faire tristement défaut au triomphe d’un Torvalds quadragénaire.

Notes

[1] Crédit photo : Martin Streicher (Creative Commons By-Sa)




Reprenons possession d’Internet – Rebecca MacKinnon – TED Talk

Internet doit-il être au service des citoyens, des gouvernements ou des multinationales ? C’est en caricature la grande question sous-jacente de ce brillant TED talk de Rebecca MacKinnon.

Il s’agit du reste d’un étonnant mais révélateur paradoxe puisque si nous savons depuis longtemps que les intérêts des multinationales ne se confondent pas avec ceux des citoyens, il devrait en être autrement pour les gouvernements. Mais, par exemple chez nous en France, l’Hadopi est passée par là et la méfiance est plus que jamais de mise.

Liberté et contrôle dans le cyberespace… telle est l’une des tensions fondamentales de ce début de siècle. Nous pouvons faire semblant de ne pas la voir (trop occupé à modifier notre statut Facebook) mais nous pouvons aussi faire le choix de tenter de l’infléchir en notre faveur. Ce blog a l’immodestie de penser qu’il y participe dans son petit coin.

Remarque : on notera que si Apple en prend (justement) pour son grade en introduction, M. Sarkozy n’est pas non plus épargné.

—> La vidéo au format webm
—> Le fichier de sous-titres

Transcript

URL d’origine du document

Traduction française Anna Cristiana Minoli (relecture Elisabeth Buffard)
Licence Creative Commons By-Nc-Sa

Je commence avec une publicité inspirée par George Orwell qu’Apple a sortie en 1984.

(Vidéo) Big Brother : Nous sommes une seule personne avec une seule volonté, une seule résolution, une seule cause. Nos ennemis peuvent parler jusqu’à la mort, et nous les combattrons avec leur propre confusion. Nous l’emporterons. Narrateur : Le 24 Janvier, Apple Computer lancera Macintosh. Et vous verrez pourquoi 1984 ne ressemblera pas à « 1984 ».

Rebecca MacKinnon : Le message implicite de cette vidéo reste très puissant encore aujourd’hui. La technologie créée par des sociétés innovatrices nous rendra la liberté. Avancez rapidement de plus de deux décennies. Apple lance l’iPhone en Chine et censure le Dalai Lama ainsi que plusieurs autres applications politiquement sensibles à la demande du gouvernement chinois pour son app store Chinois. Le dessinateur politique Mark Fiore a également vu son application satirique censurée aux États-Unis parce que le personnel Apple s’inquiétait qu’elle puisse offenser certains groupes. Son appli n’a été republiée que quand il a gagné le Prix Pulitzer. Le magazine allemand Stern, un magazine d’actualité, s’est vu censurer son appli parce que les nourrices de Apple l’ont considérée un petit peu trop osée pour ses utilisateurs, et ce malgré le fait que ce magazine est en vente parfaitement légale dans les kiosques en Allemagne. Et encore plus controversé, récemment, Apple a censuré une appli de contestation palestinienne après que le gouvernement israélien ait exprimé des inquiétudes sur la possibilité qu’elle soit utilisée pour organiser des attaques violentes.

Donc voilà, nous sommes dans une situation où des sociétés privées appliquent des standards de censure qui sont souvent très arbitraires et généralement plus stricts que les standards constitutionnels de liberté de parole que nous avons dans les démocraties. Ou bien elles répondent aux demandes de censure de la part de régimes autoritaires qui ne reflètent pas le consentement de ceux qu’ils gouvernent. Ou bien ils répondent aux demandes et aux inquiétudes de gouvernements qui n’ont aucune juridiction sur plusieurs, ou sur la plupart, des usagers qui interagissent avec le contenu concerné.

Donc voici la situation. Dans un monde pré-Internet, la souveraineté sur les libertés physiques, ou son absence, était presque entièrement contrôlée par les états nation. Mais nous avons maintenant cette nouvelle couche de souveraineté privée dans le cyberespace. Et leurs décisions sur le codage des logiciels, sur l’ingénierie, la conception, les conditions d’utilisation agissent toutes comme une sorte de loi qui façonne ce que nous pouvons et ne pouvons pas faire avec nos vies numériques. Et leur souveraineté, transversale, mondialement interconnectée, peut d’une certaine façon défier la souveraineté des états nations de manière formidable, mais parfois agir également pour projeter et s’étendre au moment où le contrôle sur ce que les personnes peuvent et ne peuvent pas faire avec l’information a plus d’effet que jamais sur l’exercice du pouvoir dans notre monde physique. Après tout, même le leader du monde libre a besoin d’un peu d’aide du sultan du Facebookistan s’il veut être réélu l’année prochaine.

Et ces plateformes ont surement été très utiles aux activistes en Tunisie et en Égypte au printemps dernier et au delà. Comme Wael Ghonim, le cadre égyptien de Google le jour, et activiste secret de Facebook la nuit, a raconté à la CNN après la démission de Moubarak, « Si vous voulez libérer une société, il suffit de lui donner Internet. » Mais renverser un gouvernement est une chose et construire une démocratie stable est un peu plus compliqué. Sur la gauche une photo prise par un activiste égyptien qui était de ceux qui ont pris d’assaut les bureaux de la sécurité d’état égyptienne en Mars. Et de nombreux agents ont broyé le plus de documents possible et les ont laissé derrière eux en tas. Mais certains des fichiers sont restés intacts, et les activistes, certains d’entre eux, ont trouvé leurs propres dossiers de surveillance remplis de transcriptions de leurs propres échanges d’emails, leurs échanges de textos, même les conversations sur Skype. Et un activiste en fait a trouvé un contrat d’une société occidentale pour la vente d’une technologie de surveillance aux forces de sécurité égyptiennes. Et les activistes égyptiens présument que ces technologies de surveillance sont encore utilisées par les autorités transitoires qui gèrent les réseaux dans le pays.

Et en Tunisie, la censure a en fait commencé à revenir en Mai — pas aussi considérablement que sous la présidence de Ben Ali. Mais vous voyez ici une page bloquée, c’est ce qui se passe quand vous essayez de vous connecter à certaines pages de Facebook et à d’autres sites qui, selon les autorités de transition, peuvent inciter à la violence. Pour protester contre ça, le blogger Slim Amamou, qui avait été emprisonné sous Ben Ali et ensuite était rentré dans le gouvernement de transition après la révolution, a démissionné en signe de protestation. Mais de nombreux débats ont eu lieu en Tunisie sur la façon de gérer ce type de problème.

En fait, sur Twitter, il y avait un certain nombre de gens qui soutenaient la révolution qui disait, « Et bien, en fait, nous voulons la démocratie et la liberté d’expression, mais il y a certains discours qui doivent être tenus à l’écart parce qu’ils sont trop violents et pourraient déstabiliser notre démocratie. Mais le problème est, comment décider qui a le pouvoir de prendre ce genre de décisions et comment s’assurer qu’ils n’abusent pas de leur pouvoir ? Comme Riadh Guerfali, l’activiste numérique vétéran tunisien, a commenté l’incident, « Avant les choses étaient simples : il y avait les gentils d’un côté et les méchants de l’autre. Aujourd’hui, les choses sont plus subtiles. » Bienvenue dans la démocratie, amis tunisiens et égyptiens.

La réalité est que même dans les sociétés démocratiques d’aujourd’hui, nous n’avons pas de bonnes réponses à la question de comment équilibrer le besoin de sécurité et l’application des lois d’un côté et la protection des libertés civiles et la liberté de parole de l’autre dans nos réseaux numériques. En fait, aux États-Unis, quoi que vous pensiez de Julian Assange, même ceux qui ne sont pas nécessairement des grands fans sont très inquiets de la manière avec laquelle le gouvernement des États-Unis et certaines sociétés ont traité Wikileaks. Amazon en tant qu’hébergeur web a laissé tomber Wikileaks en tant que client après avoir reçu une plainte du sénateur américain Joe Lieberman, malgré le fait que Wikileaks n’ait pas été inculpé, encore moins condamné, pour aucun crime.

On présume donc qu’Internet est une technologie qui fait voler les frontières en éclat. Voici une carte des réseaux sociaux dans le monde, et il est certain que Facebook a conquis la plus grande partie du monde, ce qui peut être une bonne ou une mauvaise chose, selon que vous aimiez ou non la manière dont Facebook gère son service. Mais les frontières demeurent dans certaines parties du cyberespace. Au Brésil et au Japon, c’est pour des raisons culturelles et linguistiques uniques. Mais si vous regardez la Chine, le Vietnam et certains des anciens états soviétiques, ce qui s’y passe est plus inquiétant. Vous avez une situation où la relation entre le gouvernement et les sociétés de réseaux sociaux locales est en train de créer une situation où, effectivement, le pouvoir que pourrait donner ces plateformes est contraint à cause de ces relations entre les compagnies et le gouvernement.

En Chine, vous avez maintenant, le “grand pare-feu”, comme on l’appelle, qui bloque Facebook, Twitter et maintenant Google+ et de nombreux autres sites étrangers. Et ceci est fait en partie avec l’aide de la technologie occidentale. Mais ce n’est que la moitié de l’histoire. L’autre partie de l’histoire ce sont les conditions que le gouvernement chinois impose à toutes les sociétés qui opèrent sur Internet en Chine, qu’on connait comme un système d’autodiscipline. En anglais courant, cela signifie censure et surveillance des utilisateurs. Voici donc une cérémonie à laquelle j’ai assisté en 2009 où la Internet Society of China a remis des prix aux 20 premières sociétés chinoises les meilleures dans l’exercice de l’autodiscipline — c’est-à-dire dans le contrôle de leurs contenus. Et Robin Li, Directeur Général de Baidu, le premier moteur de recherche en Chine, faisait partie des lauréats.

En Russie, généralement ils ne bloquent pas Internet et ne censurent pas directement les sites. Mais voici un site qui s’appelle Rospil c’est un site anti-corruption. Et cette année, il y a eu un incident troublant au cours duquel les gens qui avaient fait des dons à Rospil à travers un système de paiement qui s’appelle Yandex Money ont soudain reçu des menaces par téléphone de la part de membres du parti nationaliste qui avaient obtenu des détails sur les donateurs de Rospil par le biais des membres des services de sécurité qui avaient d’une façon ou d’une autre obtenu ces informations des gens de Yandex Money. Cela a refroidi les gens quant à leur capacité d’utiliser Internet pour tenir le gouvernement responsable. Nous avons donc une situation dans le monde aujourd’hui où dans de plus en plus de pays la relation entre les citoyens et les gouvernements se fait au moyen d’Internet, qui est compromis à l’origine par des services privés.

Alors la question importante, je crois, ce n’est pas le débat pour savoir si Internet aidera les gentils plutôt que les méchants. Bien sûr, cela donnera du pouvoir à quiconque a le plus de talent dans l’utilisation de la technologie et comprend le mieux Internet par rapport à son adversaire, qui que ce soit. La question la plus urgente que nous devons nous poser aujourd’hui est comment pouvons-nous être sûrs que l’évolution d’internet est centrée sur les citoyens. Parce que je pense que vous serez tous d’accord que le seul but légitime d’un gouvernement est de servir les citoyens. Et je pourrais affirmer que le seul but légitime de la technologie est d’améliorer nos vies, et non de les manipuler ou de nous réduire à l’esclavage.

La question est donc, nous savons comment tenir le gouvernement responsable. Nous ne le faisons pas nécessairement très bien, mais nous avons une bonne idée des modèles politiques et institutionnels pour le faire. Comment tenir les souverains du cyberespace responsable de l’intérêt public quand la plupart des directeurs généraux affirment que leur principale obligation est de maximiser les profits des actionnaires ?

Et souvent la régulation du gouvernement n’aide pas beaucoup. Vous avez des situations, par exemple, en France dans laquelle le président Sarkozy dit aux directeurs généraux des compagnies Internet, « Nous sommes les seuls et légitimes représentants de l’intérêt public. » Mais ensuite il soutient des lois comme la tristement célèbre Hadopi qui déconnecte les citoyens d’Internet suite au partage de fichiers, ce que le Rapporteur Spécial des Nations-Unies pour la liberté d’expression a condamné comme une violation disproportionnée des droits de communication des citoyens, et a soulevé des questions parmi les groupes de société civique pour savoir si oui ou non certains représentants politiques sont plus intéressés par la préservation des intérêts de l’industrie du divertissement plutôt que pas la défense des droits de leurs citoyens. Et ici au Royaume-Uni on s’inquiète aussi d’une loi du nom de Digital Economy Act qui est en train de placer plus d’obligation sur les intermédiaires privés à surveiller les comportements des citoyens.

Nous devons donc reconnaitre c’est que si nous voulons avoir dans le futur un Internet centré sur le citoyen, nous avons besoin d’un mouvement sur Internet plus large et plus soutenu. Après tout, les sociétés n’ont pas arrêté de polluer les eaux, bien entendu, ou d’employer des gamins de 10 ans, uniquement parce que les cadres se sont levés un jour et ont décidé que c’était la bonne chose à faire. C’est le résultat de décennies d’activisme soutenu, de soutien de l’actionnariat et de soutien des consommateurs. De la même façon, les gouvernements ne promulguent pas de lois intelligentes concernant l’écologie et le travail uniquement parce que les politiciens se sont levés un jour. C’est le résultat d’un activisme politique très soutenu et prolongé. qui aboutit à de bons règlements, et avec lequel vous obtenez le bon comportement collectif. Nous avons besoin de la même approche avec Internet.

Nous aurons également besoin d’innovation politique. Il y a 800 ans, à peu près, les barons anglais ont décidé que le droit divin des rois ne leur allait plus tellement bien, et ils ont forcé le roi Jean à signer la Magna Carta, qui reconnaissait que même le roi qui prétendait régner de droit divin devait tout de même respecter une série de règles élémentaires. Ceci a mis en route un cycle de ce que nous pouvons appeler innovation politique, qui a conduit à l’idée de consentement des gouvernés — ce qui a été appliqué pour la première fois par ce gouvernement révolutionnaire radical en Amérique au delà de l’océan. Maintenant nous avons donc besoin de comprendre comment construire un consentement des utilisateurs du réseau.

Et à quoi cela ressemble ? Pour le moment, nous ne le savons pas encore. Mais cela demandera de l’innovation, qui ne devra pas se contenter de se concentrer sur la politique, ou sur la géopolitique, elle devra également s’occuper de questions de gestion des affaires, du comportement des investisseurs, des choix des consommateurs et également de création et construction de logiciels. Nous avons tous un rôle à jouer dans la construction du genre de monde dans lequel le gouvernement et la technologie servent les gens et non le contraire.




Bitcoin libérera-t-il la monnaie à l’échelle d’Internet ?

TraderTim - CC by-sa« Papa, tu faisais quoi quand les crédits Facebook sont devenus l’unique moyen de paiement sur internet ? »

C’est par cette phrase cinglante que s’achève le billet de notre ami Ploum, qui nous a fait l’honneur d’un article original sur le Framablog.

Le propos se divise en deux parties.

La première nous explique très clairement pourquoi nous avons urgemment besoin d’un système d’échange monétaire libre et décentralisé, à fortiori lorsqu’il s’agit de micropaiements ou de microdons.

La seconde est consacrée à Bitcoin (cf cette vidéo) qui semble potentiellement d’ores et déjà répondre au besoin mais qui n’est pas sans poser questions et problèmes[1].

Je ne sais si Bitcoin s’imposera, mais celui qui réussira lui ressemblera.

Et ce jour-là Papa sera fier d’annoncer à son rejeton qu’on pourra non seulement se passer des crédits Facebook mais qu’on n’aura plus à trembler servilement lorsque les bourses mondiales se mettent à tousser.

Décentralisation monétaire

Ploum – juillet 2011
Licence Creative Commons By-Sa

Quelle que soit votre motivation profonde, vous êtes beaucoup, parmi les lecteurs de Framasoft, à voir dans l’Internet un espace de liberté, d’expression, de communication, d’échanges, d’entraide et bien d’autres.

Afin que cette liberté soit garantie, il est nécessaire d’éviter à tout prix une centralisation qui mettrait le pouvoir absolu d’un service donné dans les mains d’une seule personne, entreprise ou gouvernement. En effet, un service décentralisé assure non seulement la pérennité du réseau mais permet également une indépendance d’un client par rapport à un fournisseur de service.

C’est pour cette raison qu’à Framasoft nous sommes de fervents défenseurs de l’email, que nous utilisons XMPP à la place de MSN, que nous préférons identi.ca à Twitter et que nous suivons avec impatience les progrès de Diaspora pour proposer une alternative à l’omniprésent Facebook.

Mais si l’entraide, la communication et l’échange sont de très belles choses, ils ne sont malheureusement pas entièrement suffisants et la majorité d’entre nous, Framasoft inclus, a encore terriblement besoin d’argent.

Alors que le troc est entièrement décentralisé, chacun troquant selon ses convenances, l’argent est un service totalement centralisé fourni par les états. D’ailleurs, ne parle-t’on pas de « banque centrale » ?

Ce système est, de plus, complètement opaque, les citoyens devant entièrement faire confiance à l’état central qui, lui-même, délègue une partie de ce pouvoir aux banques privées.

Le fait que ce soit un bien ou un mal reste sujet à interprétation. Néanmoins, en regard de la crise économique de 2008, il faut bien admettre que le résultat de l’actuelle politique économique centralisée est relativement mitigé. C’est d’ailleurs une des raisons pour laquelle certaines collectivités ont développé des systèmes d’échange locaux (SEL), en temps qu’alternative locale et auto-gérée à l’économie traditionelle.

Sur le réseau la situation n’est guère meilleure. Quelques acteurs centralisés comme Visa et Paypal monopolisent les transferts entre monnaie réelle et monnaie virtuelle. Cette situation d’oligopole leur est, bien entendu, fortement profitable : taxes à l’entrée d’argent dans le système, taxe à la sortie d’argent du système, commission sur chaque transaction. Sans compter que toutes vos dépenses, représentant une grande part de votre vie privée, sont fichées et archivées entre les mains d’entreprises pas toujours scrupuleuses.

Au final, il s’ensuit un véritable racket de l’internaute : afin que votre correspondant puisse recevoir 1€ au bout de la ligne, il n’est pas rare de devoir verser 1,20€, 1,50€ voire 1,80€, sous forme de frais fixes et de pourcentage sur la transaction. Ces frais, négligeables pour les grosses sommes, empêchent tout développement réel des petits transactions, des microdons, des micro-achats. Ces entreprises acquièrent également un pouvoir politique, s’octroyant le droit de « geler » ou de supprimer des comptes, comme ce fut le cas pour Wikileaks.

Le transfert de petites sommes est pourtant un moteur de notre économie. Si l’on hésite à acheter un album de musique à 14€, acheter une chanson à 1€ peut se faire sur un coup de tête. Les grandes entreprises ont donc développé des systèmes de « comptes » ou d’abonnements. Vous versez une somme importante en une fois que vous pourrez dépenser petit à petit. L’Apple Store ou les crédits Facebook fonctionnent sur ce principe. Mais outre le fait que ces systèmes sont centralisés, ils nécessitent d’immobiliser une grosse somme d’un seul coup et ne sont bien sûr pas interopérables. Une fois vos 25€ versés sur Facebook, ils sont irrécupérables et non-transférables en dehors des applications Facebook.

Quelques alternatives tentent également de proposer un modèle original, comme Flattr. Flattr offre en effet de déterminer une somme mensuelle fixe qui sera divisée par le nombre de dons faits chaque mois. Néanmoins, cela reste centralisé et avec des frais prohibitifs. Ainsi, Framasoft ne touche que 90% des dons faits via Flattr.

Une solution idéale serait de proposer un système d’échange monétaire libre et décentralisé. Un tel système existe et a un nom : Bitcoin.

Techniquement, le fonctionnement de Bitcoin est relativement complexe, se basant sur des algorithmes cryptographiques et le peer-to-peer. Le gros problème d’une monnaie virtuelle est d’éviter la « double dépense ». Par essence, une information virtuelle peut être répliquée à l’infini, problème qui tracasse l’industrie musicale depuis plusieurs années.

Bitcoin résout ce problème en utilisant le peer-to-peer. Lorsque Alice donne un bitcoin à Bob, elle rend la transaction publique. Les participants au réseau bitcoin (les « mineurs ») vérifient que la transaction est légitime en s’assurant que, dans leur historique des transactions, Alice est bien la dernière personne à avoir reçu ce bitcoin précis, chaque bitcoin étant unique. Les « mineurs » annoncent sur le réseau que la transaction est confirmée. Quand suffisamment de « mineurs » ont confirmé la transaction, Bob peut considérer que Alice ne pourra plus dépenser son bitcoin et qu’il en est donc le propriétaire. Si Alice tente de redépenser son bitcoin, les « mineurs » refuseront la transaction, arguant que, d’après l’historique, Bob est le légitime propriétaire du bitcoin.

Pour encourager les « mineurs » à faire ce travail de vérification, le réseau gratifie le premier mineur à vérifier chaque bloc de transactions d’un bonus. Ce bonus, qui est pour le moment de 50 bitcoins, décroît avec le temps et a pour conséquence de distribuer la monnaie graduellement à travers le réseau.

Le nombre de bitcoins ainsi générés étant une fonction décroissante, on a pu calculer que le nombre total de bitcoins ne dépasserait jamais 21 millions.

Intrinsèquement, le bitcoin n’a aucune valeur. C’est juste la preuve qu’un échange a été fait. Mais n’en est-il pas de même pour n’importe quelle monnaie ?

Afin de garantir l’anonymat, les transactions ne se font pas directement entre Alice et Bob mais entre deux adresses du type 1GTkuikUyygRtkCy5H6RMuTMGA1ypqLc1X, qui est la partie publique d’une clé de cryptage asymétrique. Bob donne à Alice son adresse et seul eux deux savent à qui appartient l’adresse. Le réseau ne possède aucun moyen de lier l’adresse réceptrice à Bob. Bob, de son côté, possède la partie privée de la clé, lui permettant de prouver qu’il est bien le destinataire de tous les bitcoins envoyés à cette adresse. Bob peut générer autant d’adresses qu’il le désire et l’usage est de générer une adresse par transaction.

La facilité d’échange et la rareté du bitcoin en font un candidat idéal pour une monnaie électronique décentralisée. Des sites de vente en ligne acceptant les bitcoins sont donc apparus sur le net. Beaucoup de personnes, tablant sur un succès futur des bitcoins, on décidé d’en acheter une certaine quantité, ce qui a fait monter le prix du bitcoin. Une véritable économie parallèle s’est développée, principalement basée sur la spéculation. La valeur du bitcoin est passée de 0,01€ en novembre 2010 à 25€ en mai 2011, avant de redescendre aux alentours de 10€ en juin 2011.

Si Richard Stallman n’a pas encore pris de position publique au sujet du bitcoin, le fait qu’il s’agisse d’un logiciel libre, décentralisé et permettant des paiements anonymes en fait la coqueluche de certains libristes. La Free Software Foundation elle-même accepte dorénavant les donc en bitcoins. Après moins de deux jours, plus de 270 bitcoins avaient été envoyés anonymement, l’équivalent de près de 700€ de dons à l’époque et 2700€ actuellement !

Mais tout n’est pas rose au pays des bitcoins et les critiques sont nombreuses.

Beaucoup s’étonnent notamment au fait d’attacher de la valeur à quelque chose qui n’en a pas. À ce sujet, le bitcoin ne diffère pas d’un bout de papier ou même d’un morceau de métal jaune brillant. La valeur attachée à un objet est en effet liée à la confiance que le possesseur a de pouvoir échanger cet objet. Mais entre accorder sa confiance à un gouvernement et l’accorder à un réseau P2P décentralisé, il y a un pas que beaucoup hésitent à franchir.

Le bitcoin est anonyme et permet de gros échanges d’argent sans aucun contrôle, tel la vente de drogue ou de services illicites. Les partisans du bitcoin répliquent que bitcoin n’est qu’un outil, comme l’est la monnaie papier. Beaucoup d’outils facilitent les activités illégales: Internet, la cryptographie, le réseau Tor. Il est d’ailleurs déjà possible d’acheter de la drogue en ligne en payant en bitcoins. Faut-il bannir ces outils pour autant ? Une chose est certaine: le bitcoin opère dans une zone encore floue de la légalité. Même les activités parfaitement licites sont confrontées à un problème de taille: comment déclarer des revenus en bitcoins ? Faut-il payer des impôts ? À ce titre, Bitcoin peut être considéré comme un gigantesque SEL à l’échelle d’Internet.

Nombreux, également, sont ceux qui pointent l’inégalité de Bitcoin. En effet, les premiers bitcoins étaient très faciles à générer. Les tous premiers entrants ont donc, sans effort, récolté des milliers de bitcoins. Est-ce que le fait d’avoir cru en bitcoin avant tout le monde est suffisant pour justifier leur nouvelle richesse ? Le bitcoin n’est-il pas une gigantesque pyramide de Ponzi ? De manière amusante, cette critique semble typiquement européenne. Dans un monde où la richesse est un signe de succès, les Américains ne semblent en effet pas y voir le moindre inconvénient, surtout dans la mesure où cet enrichissement entièrement virtuel ne s’est pas fait au détriment d’autres personnes.

Économiques, philosophiques, morales, techniques ou politiques, Bitcoin interpelle et soulève de nombreuses questions à propos du système dans lequel nous vivons, ne laissant personne indifférent. À tel point que certains se demandent si le prix actuel du bitcoin n’est pas entièrement artificiel et créé par l’enthousiasme des spéculateurs. Sa difficulté d’utilisation et l’apparent amateurisme des sites acceptant les bitcoins ne semblent pas plaider en faveur du bitcoin.

En Juin 2011, MtGox.com, le principal site d’échange de bitcoin contre des dollars, a été piraté et des opérations ont été réalisées de manière frauduleuse, plongeont l’économie du bitcoin dans l’incertitude pendant une semaine complète. La valeur du bitcoin n’en a que peu souffert mais, pour certains, l’évênement a été un signal d’alarme: le bitcoin est encore très expérimental et sa valeur peut tomber à zéro en quelques heures.

Mais, malgré tout, Paypal, les crédits Facebook et les pièces d’or de World of Warcraft nous ont démontré que la généralisation des monnaies virtuelles est une évolution inéluctable. Si elle n’est pas exempte de critiques, Bitcoin semble à ce jour la seule alternative libre et décentralisée utilisable.

Bitcoin disparaitra-t-il comme une bulle spéculative après quelques mois ? Transformera-t-il durablement la société ? J’avoue ne pas en avoir la moindre idée mais je sais que mon plus grand cauchemar est de me réveiller un matin avec une petite tête blonde me demandant auprès de mon lit: « Papa, tu faisais quoi quand les crédits Facebook sont devenus l’unique moyen de paiement sur internet ? »

Notes

[1] Crédit photo : TraderTim (Creative Commons By-Sa)




Petite chronique de l’e-G8, retour sur une tempête médiatique

G8 vs Internet - CC by-saLes 24 et 25 mai derniers se tenait à Paris le « Forum e-G8 », en prélude au G8 de Deauville. Ce forum participatif consacré à Internet fut résolument orienté “business” : organisé par le groupe publicitaire Publicis, les invités étaient principalement les dirigeants des plus grosses sociétés de communication (Google, Facebook, eBay, Fox, Bertelsmann, Vivendi, etc.).

Si le commerce fait évidemment partie intégrante des possibilités ouvertes par Internet, cela ne constitue qu’une petite partie de l’utilisation qui est faite du réseau aujourd’hui. Or, la sélection très orientée des intervenants ne portait par conséquent qu’un seul point de vue : « Comment utiliser Internet pour doper la croissance économique ? » et sa question sous-jacente « Comment contraindre et réguler Internet pour s’assurer que les profits continueront d’augmenter ? ».

La société civile était donc complètement marginalisée dans le programme du e-G8, laissant le champ libre à un discours de « civilisation », de « moralisation », voire de contrôle de l’Internet. C’était sans compter sur des interventions de John Perry Barlow (EFF) ou Lawrence Lessig (Creative Commons), et surtout sans la culture du « hacking » (au sens de « bidouillage », « détournement ») d’associations comme la Quadrature du Net qui ont pu faire entendre la voix des principaux concernés : les internautes.

Petite chronique de l’e-G8, retour sur une tempête médiatique

Neurone364 – 24/06/2011 – Framablog

Cette petite rétrospective se propose de parcourir les principaux évènements du « forum e-G8 » tels qu’ils furent présentés par la presse écrite sur Internet. À l’origine de cette initiative, une constatation simple : la revue de presse que tient la Quadrature du Net est passée, lors de ces deux journées pittoresques, d’un rythme de croisière d’environ 5 articles signalés par semaine, à plus de 50 par jour ! La petite équipe bénévole dédiée à la tâche a donc suivi le mouvement imprimé par le porte-parole, les co-fondateurs, les accampagnants[1], les bénévoles et tous les citoyens qui agissent et réagissent en conscience aux attaques contre Internet signalées par la Quadrature, pour finir la semaine sur les rotules, avec un sourire serein et des cernes sous les yeux.

Tout a commencé calmement, le 18 mai 2011, avec la publication par la Quadrature du Net d’un communiqué intitulé « Forum eG8 » : un écran de fumée pour le contrôle gouvernemental du Net. Dans ce communiqué, nous dénoncions l’organisation par le gouvernement d’un processus pseudo-consultatif, mis en place autour d’un show à l’américaine, avec les stars du web commercial réunies à Paris. En parallèle, accompagnée de plusieurs organisations d’artistes et citoyennes, la Quadrature invitait toutes les créativités à s’exprimer contre les tentatives de transformer Internet en un outil de répression et de contrôle en ouvrant le site web http://g8internet.com à l’expression publique.

D’un côté, il y avait donc ce simple espace de liberté, ouvert pour l’occasion par quelques gus dans un garage, et de l’autre, Publicis, un géant mondial à qui l’on confie des budgets d’état pour faire son métier : de la publicité. De la communication pour ceux qui ont, à vendre, la vision d’un Internet restreint aux intérêts de leurs activités…

Vous vous demandiez ce qu’est la Quadrature du Net ? C’est ça : un village d’irréductibles amoureux de la liberté d’expression, celle offerte à tous par l’Internet neutre que nous avons encore entre les mains, et qui s’échappe comme une poignée de sable sur laquelle soufflent de puissants intérêts privés et commerciaux.

Heureusement, cette histoire n’est pas encore écrite, et nous avons avec nous bien mieux qu’une potion magique : un réseau planétaire reliant sans discrimination toutes les bonnes volontés du monde. Il ne tient qu’à chacun de tendre la main (vers son clavier, et son prochain) pour se dresser en rempart de ce droit fondamental qu’est l’accès à Internet, l’accès aux autres.

Ce 18 mai 2011, la presse commençait à frémir devant l’évènement en préparation, LePoint.fr titrait par exemple : « Le forum e-G8 suscite doutes et attentes » notant que si « beaucoup espéraient une mise à plat des politiques de gouvernance du Net, de respect de la vie privée ou de développement des libertés d’expression et d’information, il se pouvait que l’orientation de ce e-G8 soit avant tout économique et tournée vers les grands acteurs privés plutôt que vers les internautes. »

Le 19, c’est Médiapart qui se faisait l’écho d’une société civile oubliée à cette grand messe, dans un article intitulé : « Avant le G8 du Net, les citoyens tentent de garder la parole ». Et ce « tentent » n’était rien moins que défaitiste.

Le 20 mai, la Quadrature du Net annonçait une analyse à paraître dans l’hebdomadaire Marianne et sur le site du journal détaillant la spectaculaire opération de rattrapage tentée par Nicolas Sarkozy auprès des électeurs internautes, après avoir lui-même empêché la tenue d’une conférence mondiale consacrée à la liberté d’expression sur internet, pourtant proposée par Bernard Kouchner. Après avoir menacé de passer les banlieues au karsher, le conquistador de l’Élysée voulait cette fois se donner pour mission de « civiliser » l’internet.

L’Élysée ne veut pas entendre parler de cyberdissidence, ni de liberté d’expression, il veut du “contrôle”. Frédéric Martel, Marianne, 21-27 mai 2011

Cet article de Marianne, repris dans le Figaro sous le titre : « Sarkozy préfère “l’internet civilisé” aux cyberdissidents » sera lu plus de 30 000 fois en une semaine, première goutte de pluie annonçant la fin du calme avant la tempête médiatique.

D’ailleurs des gouttes tombaient déjà au delà de nos frontières, comme en atteste cet article du New York Times paru le même jour, sous le titre narquois « Chaos of internet Will Meet French Sense of Order » ou « Le chaos d’Internet va rencontrer le sens de l’ordre français ».

La pluie s’est mise à crépiter le 23 mai, à la veille du forum, le lundi de cette fameuse semaine. Les premières éclaboussures vinrent du site PublicSénat.fr reconnaissant que l’évènement annoncé est « Pour le chef de l’Etat, l’occasion de renouer avec le monde du Web, un peu malmené avec la loi Hadopi. Nicolas Sarkozy n’est pas un grand amateur des questions numériques. », et relayant l’analyse de la Quadrature quant au contenu des « débats », voire plutôt du déballage prévu pour les jours suivants. De son côté, l’Express publiait dans un article « Ce qu’il faut savoir sur l’eG8 » confiant que

L’impression générale donnée par le forum est celle d’un grand fourre-tout, dont on imagine qu’il servira de grand rendez-vous de networking. Dans ces conditions, difficile de déboucher sur des annonces concrètes. D’autant que les chefs d’Etat du G8 ne prévoient de consacrer qu’une heure à ces questions lors du sommet de Deauville.

En Europe, le site RTL.be titrait sans illusions et avec le franc-parler que l’on ne trouve plus dans l’hexagone concernant les affaires gouvernementales : « eG8 Forum : politiques et stars du Web à Paris ».

Le mardi 24 mai la Quadrature du Net rappelait dans un communiqué, pour lancement de l’opération, que :

L’eG8 est une mise en scène où un gouvernement déconnecté de la civilisation Internet espère apparaître en phase avec celle-ci en se montrant en compagnie de quelques leaders économiques du secteur. »

Et la pluie se fit alors battante. Elle ruisselait sur nos écrans en ondées numériques défilant comme les vagues vert-phosphorescent des moniteurs de la matrice… Libération parlait ainsi de « L’illustration parfaite d’une collusion malsaine » Europe1 des « “People” et paillettes pour le G8 du web » et Le Monde relevait que l’e-G8 n’allait que « de “Internet civilisé” à l’Internet “facteur de croissance” », se faisant l’écho des analyses de la Quadrature ou de l’IGC[2] pour qui il est anormal que le forum soit « organisé par le secteur privé et que l’accès soit donné aux seuls acteurs des entreprises privées et des gouvernements. »

20Minutes.fr notait également de son côté qu’à l’e-G8 il semblait se confronter « deux visions du Net irréconciliables » tandis que Challenges.fr reprenait le glissement sémantique opéré par le Président qui ne parla plus alors dans ses discours de civiliser l’espace numérique, mais désormais de moraliser l’internet.

SudOuest.fr titra sur la sensationnelle déclaration de Nova Spivack, invité à l’événement :

Internet va balayer les gouvernements

En début d’après midi, la CNIL tapait du poing sur la table dans une spectaculaire sortie intitulée « La protection de la vie privée absente de l’e-G8 : oubli ou rejet ? » et se terminant par plusieurs remarques dont la plus cinglante est sûrement :

Lors de cet événement où tout s’achète, combien coûte la protection de la vie privée ? Apparemment pas grand-chose !

Une petite phrase qui en dit long sur la considération du gouvernement à l’égard de cet indispensable organe de l’état, et qui se répandit sur les blogs et micro-blogs cet après-midi là, alors que le déjeuner des canotiers imaginés par Publicis subissait un orage imprévu.

En milieu d’après midi, la Quadrature publiait, avec une trentaine d’organisations et associations attachées aux libertés sur Internet une « Déclaration de la Société Civile au G8 et e-G8 » rappelant en quatre points essentiels leur attachement à l’accès Internet pour tous, à la liberté d’expression et à la neutralité du réseau.

Déclaration entendue par France24 qui constata en fin de journée que l’e-G8 « ne dissipait pas la crainte de la censure » et le pire était encore à venir.

Le lendemain ce fut le déluge. Des journaux allemands, anglais, italiens, suisses, belges, canadiens ou américains se firent l’écho de l’actualité de la veille, à l’image d’FT.com titrant «? Tech titans’ optimism fades under Paris sun ?» ou « L’optimisme des titans de la technologie s’estompe sous le soleil de Paris » ou encore de V3.co.uk avec son « Rights groups revolt as Sarkozy reveals plans to stamp out Internet freedoms », « les défenseurs des droits sur internet se révoltent face aux plans dévoilés par Sarkozy d’éradiquer les libertés sur Internet ». Pour Cyberpresse.ca « Sarkozy souffle le chaud et le froid » :

Évoquant le rôle qu’a joué Internet dans les soulèvements observés en Tunisie ou en Égypte, il a déclaré que le web est devenu “le vecteur d’une puissance inédite pour la liberté d’expression dans le monde”. Mais, du même souffle, il a soutenu que le réseau mondial ne doit pas être “un univers parallèle affranchi des règles du droit ” Le discours de Nicolas Sarkozy ne risque guère d’apaiser les organisations de défense des usagers de l’internet, qui l’accusent de vouloir “censurer” le réseau.

Analyse on ne peut plus juste, car pendant ce temps là, la société civile se mobilisait pour faire entendre ses voix au cours d’une conférence de presse improvisée tournant au contre-sommet de l’e-G8. Une soixantaine de journalistes vinrent en effet y entendre Lawrence Lessig (fondateur des Creative Commons), Jean-François Julliard (secrétaire général de RSF), le journaliste américain Jeff Jarvis, Susan Crawford (membre de l’ICANN et ex-conseillère de Bill Clinton) ou encore Jérémie Zimmermann (porte parole de la Quadrature du Net). Parmi ces journalistes, ceux de ZDNet devait titrer dans l’après midi « Un “contre eG8” dénonce la mise en scène du forum Internet du gouvernement » rappelant que pour la Quadrature du Net, le « forum » e-G8 n’était qu’un pas de plus vers la régulation des réseaux, les modèles économiques de ces « géants » du web étant basés sur des restrictions aux libertés fondamentales des citoyens[3].

En fin de journée, le Figaro se fit l’écho des « Déceptions à l’e-G8 » tandis que le Monde rappelait l’une des premières revendications de la Quadrature du Net, dans un article nommé : « L’accès à Internet doit devenir un droit fondamental ».

Les jours suivants, et jusqu’à la tenue du G8 lui même, la pluie ne s’arrêta pas comme une simple averse. Le 26 mai, Ouest-France tint à résumer « G8 de l’Internet : que faut-il en retenir ? » notant « que le G8 à venir dans les jours suivant veut réguler Internet. Et cette éventualité fait des remous chez les acteurs du web. »

La France paraît assez mal placée pour donner des leçons et pourtant, quel discours le président français a-t-il tenu au gotha mondial des créateurs d’avenir ? Il leur a dit qu’il fallait réguler Internet, le moraliser

Indiquait quant à elle France24 dans un article intitulé : « Sarkozy et Internet : le grand malentendu »

Dans une interview vidéo parue le lendemain sur ITEspresso Tristan Nitot (fondateur et président de l’association Mozilla Europe) indiquait qu’à l’ « e-G8 : il y a un manque de représentativité, on a l’impression de servir d’alibi »

LeMonde concèdait le 28 mai que l’e-G8 restera « un sommet à l’impact limité » alors que Télérama ne mâchait pas ses mots, indiquant plus prosaïquement « L’e-G8 à Paris : game over ! ».

On a surtout assisté, à Paris, pendant les deux jours de ce premier “G8 d’Internet”, à des démonstrations de force et des discours de “winners” du Web en quelques minutes chrono. On n’en ressort pas franchement bouleversés…

Le porte-parole de la Quadrature du Net, Jérémie Zimmermann, qui ne dormit que 10h en trois jours, fut sollicité pour de nombreuses entrevues. Parmi ces interviews, la plus insolite fut sûrement celle accordée à LCI, qui permet aujourd’hui de lire, sur TF1.fr qu’à l’« e-G8 : Nicolas Sarkozy a voulu se racheter une conduite » alors qu’il « s’était adressé mardi exclusivement à un parterre de chefs d’entreprises et d’acteurs “business”. Or, ce n’est qu’une toute petite partie de ce qu’est réellement Internet.»…

Épuisés mais ravis, c’est globalement dans cet état que se trouvaient la plupart des neurones de la Quadrature du Net à la fin de cette intense semaine. Les trois modérateurs du site http://g8internet.com n’ayant par exemple guère profité de plus sommeil, vu l’activité débordante du site. Morceaux choisis :

Mais ces efforts ne furent pas vains, loin s’en faut. On pouvait en effet lire sur Slate.fr le 29 mai, « G8 et internet: un rendez-vous manqué » :

Difficile d’oublier que le eG8 était organisé par la France, le pays qui a introduit l’approche de la riposte graduée et un filtrage administratif du Web . Ce qui lui a valu de faire son entrée dans la liste des pays « sous surveillance » dans le rapport 2011 de Reporters sans frontières sur « Les Ennemis d’Internet ». Des dizaines d’organisations militent pour la liberté d’expression – notamment en ligne – et le respect de la vie privée, or seules deux d’entre elles ont été invitées à s’exprimer dans le cadre du eG8 

Une façon de constater, une fois de plus qu’en usant simplement, mais avec conviction, des recours démocratiques à disposition des citoyens en France, la société civile a vraiment le pouvoir de prendre part à la vie politique du pays, de participer des décisions et d’éviter le plus souvent le pire d’être voté[4]. Or la Quadrature du Net ne se présente à vous que comme une boîte à outil technique et politique, informant sur les enjeux et donnant les clés à chacun pour qu’il construise son intervention citoyenne. Ce n’est pas plus compliqué qu’un courriel, ou qu’un coup de fil, mais c’est ce quelque chose qui change la donne, alors indignez vous ! D’ailleurs, vous avez entendu parler d’ACTA ?

Notes

[1] Néologisme pour : campaigners

[2] Internet Governance Caucus

[3] L’intégralité des interventions de cette conférence de presse est disponible depuis en vidéo sur le Médiakit de la Quadrature du Net

[4] En terme de lois inapplicables ou se révélant contraire à la constitution par exemple…




20 recommandations pour accompagner la révolution de la fabrication personnelle

Fluid Forms - CC by« Un certain nombre de forces convergentes vont faire passer la fabrication personnelle, ou autofabrication, du statut de technologie marginale utilisée par les seuls pionniers et passionnés à un outil quotidien pour le consommateur et l’entreprise lambda.

Dans quelques années, on trouvera des technologies de fabrication dans les petites entreprises et établissements scolaires.

Dans dix ou vingt ans, tous les foyers et bureaux posséderont leur machine d’autofabrication.

Dans une génération, on sera bien en peine d’expliquer à ses petits-enfants comment on a pu vivre sans son autofabricateur, et qu’on devait commander des biens préfabriqués en ligne et attendre qu’ils nous arrivent dans notre boîte au lettre livrés par la Poste. »

Cette citation qui claque est extraite d’un passionnant rapport américain d’une centaine de pages sur l’émergence de la fabrication personnelle.

Commandé par l’Office of Science and Technology Policy américain, on y expose clairement de quoi il s’agit tout en proposant d’importantes recommandations pour encourager et accompagner le mouvement.

Vous en trouverez le résumé et les principales recommandations traduits ci-dessous[1].

On ne s’étonnera pas de constater que l’accent est avant tout mis sur l’éducation, en relation avec les futurs petite entreprises qui immanquablement sortiront des garages des fab labs pour proposer localement leurs services et redessiner une économie plus humaine[2].

Certains nous reprochent notre idéalisme ou notre irréalisme, mais, telle l’impression 3D qui n’est qu’un élément du mouvement, comment ne pas voir ici l’un des plus grands espoirs d’un avenir incertain ?

Et pendant ce temps-là en France me direz-vous ? Vu comment l’Éducation nationale méprise superbement le logiciel libre et sa culture depuis plus d’une décennie, ce n’est pas demain la veille qu’on rédigera une telle étude et qu’on verra arriver des laboratoires de fabrication personnelle dans nos établissements scolaires. Quitte à prendre encore plus de retard sur le véritable train du futur et du progrès.

Pour en savoir plus sur le sujet, InternetActu est un excellent point de départ : Les enjeux de la fabrication personnelle, La prochaine révolution ? Faites-là vous-mêmes !, FabLabs : refabriquer le monde, Makers (1/2) : Faire société, Makers (2/2) : Refabriquer la société.

L’usine @ la maison : l’économie émergente de la fabrication personnelle (résumé)

Factory@Home : The Emerging Economy of Personnal Manufacturing

Hod Lipson & Melba Kurman – décembre 2010 – OSTP
(Traduction Framalang : Lolo le 13 et Yonnel)

Ce rapport souligne l’émergence des technologies de fabrication personnelle, décrit leur potentiel économique, leurs bénéfices sociaux et recommande des mesures que le gouvernement devrait prendre en considération pour développer leur potentiel.

Les machines de fabrication personnelle, parfois appelées « fabber », sont les descendantes des grandes machines de production de masse des usines, mais de taille minuscule et à faible coût. Ces machines à fabriquer à l’échelle individuelle utilisent les mêmes méthodes de fabrication que leurs ancêtres industrielles mais sont plus petites, meilleur marché et plus faciles à utiliser.

Les machines à la taille du foyer telles que les imprimantes 3D, les découpeuses laser et les machines à coudre programmables, combinées avec plan conçu sur ordinateur (en CAO), permettraient aux gens de produire des produits fonctionnels à la maison, sur demande, en appuyant simplement sur un bouton. En quelques heures, ces mini-usines pourront fabriquer un objet simple comme une brosse à dents, reproduire des pièces d’une machine complexe, créer des bijoux comme un artisan ou réaliser des ustensiles ménagers. En quelques années, les machines de fabrication personnelle pourraient être suffisamment sophistiquées pour permettre à n’importe qui de fabriquer des objets complexes tels que des appareils avec de l’électronique intégrée.

Un certain nombre de forces convergentes sont en train d’amener la conception et la production industrielles à un point critique où elles deviendront peu chères, fiables, faciles et suffisamment versatiles pour une utilisation personnelle.

L’adoption des technologies de fabrication personnelle est accelérée par les machines à bas coût, les communautés d’utilisateurs sur Internet, des logiciels de Conception Assistée par Ordinateur (CAO) d’usage plus aisé, un nombre grandissant de plans de CAO disponibles en ligne et des matières premières de plus en plus accessibles.

Les technologies de fabrication individuelle auront un impact profond sur notre façon de concevoir, fabriquer, transporter et consommer les produits physiques. En suivant le même chemin que l’ordinateur devenu personnel, les technologies de fabrication passeront de l’usine à la maison. Ces outils de production personnalisés permettront aux consommateurs, aux écoles et aux entreprises de travailler et de jouer différemment.

Ces technologies de fabrication naissantes introduiront une évolution industrielle qui réunira le meilleur de la production de masse et de la production artisanale, avec le potentiel d’inverser en partie le mouvement de délocalisation.

Les technologies de fabrication personnelle feront émerger des marchés mondiaux pour des produits personnalisés (sur le modèle de la longue traîne), dont les volumes de vente seront assez rentables pour faire vivre des entreprises spécialisées (fabrication de niche,design…). Les communautés mal desservies ou isolées géographiquement auront la possibilité de concevoir et fabriquer localement leurs propres matériel médical, jouets, pièces mécaniques et autres outils, en utilisant les matériaux présents sur place.

À l’école, les outils de fabrication à petite échelle encourageront une nouvelle génération d’innovateurs et cultiveront l’intéret des élèves pour les cours de sciences, de technologie, d’ingéniérie et de mathématiques.

Les obstacles et les défis

Nombre d’obstacles qui découragent leur généralisation à la maison, à l’école et dans les entreprises se trouvent sur le chemin de l’adoption par le grand nombre des technologies de fabrication personnelle.

Un obstacle majeur est le classique paradoxe de l’œuf et de la poule : les marchés actuels pour les technologies de fabrication personnelles à destination des consommateurs et de l’enseignement sont trop petits pour attirer l’attention d’entreprises, ce qui décourage les investissements dans la création de produits et de services qui donc ne parviennent pas à attirer plus de consommateurs.

Les autres barrières sont les questions de sécurité, les défis de la standardisation des pièces et des contrôles de versions, les problèmes de propriété intellectuelle et un manque de contrôles adaptés sur la sécurité et la réglementation.

Recommandations

Il y a plus de trente ans, notre nation a conduit le mouvement de la révolution de l’informatique personnelle. Aujourd’hui, nous devons nous assurer que nous conduirons le mouvement de la révolution de la fabrication personnelle. Des investissements gouvernementaux réfléchis et visionnaires sont nécessaires pour garantir que les États-Unis resteront compétitifs dans l’ère de la fabrication personnelle et tireront les bénéfices potentiels des technologies de la fabrication personnelle.

Ce rapport recommande les actions suivantes :

1. Créer un laboratoire de fabrication personnelle dans chaque école.

2. Former les enseignants aux technologies de conception et de fabrication en relation avec les matières scientifiques et technologiques.

3. Créer des cursus scolaires de grande qualité avec des modules optionnels de fabrication.

4. Inclure la conception et la fabrication dans les cours de soutien après l’école.

5. Allouer des ressources publiques afin d’initier les entreprises locales à la production numérique en partenariat avec les établissements scolaires locaux.

6. Encourager la publication des spécifications matérielles.

7. Développer les formats de fichiers ouverts pour les plans de CAO.

8. Créer une base de données de fichiers CAO utilisés par les pouvoirs publics.

9. Imposer la publication des sources/de la géométrie pour les ressources gouvernementales publiques.

10. Mettre en place un « Programme de Recherche et d’Innovation Individuelle » pour les entrepreneurs du DIY (Do It Yourself).

11. Donner la priorité lors d’appels d’offres aux entreprises qui utilisent la fabrication personnelle.

12. Établir un « bouclier anti-propriété intellectuelle » pour les agrégateurs et les producteurs ponctuels.

13. Explorer les microbrevets comme une unité de propriété intellectuelle plus petite, plus simple et plus agile.

14. Revisiter les réglementations sur la sécurité pour les produits fabriqués individuellement.

15. Introduire une définition plus granulaire d’une « petite » entreprise industrielle.

16. Encourager la création de Fab Labs.

17. Les avantages fiscaux accordés aux « entreprises propres » devraient également concerner les entreprises de fabrication personnelle.

18. Accorder des réductions d’impôts sur les matières premières aux entreprises de fabrication personnelle.

19. Financer une étude du Département d’éducation sur la fabrication personnelle dans les matières scientifiques et technologiques.

20. Renforcer la connaissance et l’apprentissage sur la conception de produit.

Notes

[1] Dans l’idéal nous souhaiterions traduire l’intégralité du rapport, s’il y a des volontaires qu’ils n’hésitent pas à se manifester via le formulaire de contact.

[2] Crédit photo : Fluid Forms (Creative Commons By)