Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




Librologie 4 : Plain

Bonjour amis lecteurs et lectrices,

Un chapitre un peu exceptionnel pour la Librologie de cette semaine, dans de bien tristes circonstances. Je vous propose donc de réfléchir aujourd’hui au projet Gutenberg, à son fondateur Michael Hart… et à un objet mythique par excellence du monde geek : le plain-texte.

Bonne lecture à tous et à toutes ![1]

Librologie 4 : Plain

Michael HartJe précipite la publication de cette chronique (prévue pour le trimestre prochain) en apprenant à l’instant le décès de Michael Stern Hart, fondateur du Projet Gutenberg qui est la première (et sans doute la plus attachante) des bibliothèques Libres en ligne.

Au moment où j’écris ces lignes, le Projet Gutenberg s’apprête à fêter ses 40 ans — c’est-à-dire que sa naissance précède même celle du réseau Internet ! C’est le 1er décembre 1971 que tout commence, soit une bonne décennie avant l’apparition du mouvement Libre. Nous sommes à l’université d’Illinois, dont l’ordinateur central vient d’être mis en réseau avec une poignée d’autres, y compris (et c’est une grande première) au-delà du contient américain, pour former le réseau ARPANET.

Xerox-SDS Sigma 5 - Laughing Squid - CC by-ncCe jour-là le jeune Michael Hart, âgé de 24 ans, va se retrouver devant ce joyau de technologie (un Xerox-SDS Sigma V, réparti dans quatre grandes armoires, doté de 64 Ko de mémoire et de 2 Mo de stockage sur bande), pleinement conscient de l’immense faveur qui lui est accordée (le temps d’ordinateur est précieusement minuté, la moindre minute ayant un coût exorbitant). Comment être à la hauteur de cet honneur historique ? C’est en chemin que l’idée lui vient, ayant récupéré à l’épicerie du coin un prospectus où est reproduite la Déclaration d’indépendance des États-Unis d’Amérique (lesquels États-Unis s’apprêtent alors à fêter leur bicentenaire) : il va frapper un grand coup, et partager avec le monde entier un patrimoine culturel qui lui survivra et traversera les siècles.

Le projet Gutenberg prend donc vie avec ce premier texte, qui sera alors consulté par un total de… six arpanautes. Cependant Hart voit loin (l’intitulé « Gutenberg » en témoigne), et se fixe pour objectif de mettre en ligne avant la fin du siècle, les 10 000 ouvrages les plus lus au monde. Si les débuts sont laborieux (isolé et privé de toute reconnaissance académique, Hart mettra vingt ans à atteindre seulement le chiffre de 100 livres), l’objectif sera non seulement atteint mais pulvérisé à partir des années 1990, avec l’avènement du Web et de la numérisation automatisée d’ouvrages imprimés. À l’heure où j’écris ces lignes, le projet Gutenberg approche les 40 000 opus (dont certains comptent plusieurs milliers de pages) ; cependant il a été rejoint par d’innombrables initiatives similaires ou concurrentes : de Wikisource à Google Books® en passant par Internet Archive, Gallica ou Européana, l’on ne compte plus aujourd’hui les bibliothèques en ligne dont le fonds est (plus ou moins) librement accessible au public. Le réseau Internet tout entier s’est massivement transformé en vecteur de diffusion et de consommation culturelle ; P2P, MP3, streaming, podcasts, multimédia en tout genre, culte de l’image (particulièrement de l’image animée). Les livres eux-même se sont faits e-books, terme dont j’attends encore que l’on m’explique ce qu’il peut bien signifier et pourquoi on a cru bon de l’inventer — si ce n’est pour vendre, à l’occasion, des attrape-gogos numériques.

Naturellement, le projet Gutenberg n’a pas été insensible à cette évolution (qu’il a largement contribué à susciter). L’on trouvera ainsi sur la page d’un livre au hasard, la mention « eBook » largement mise en avant, ainsi que les liens suivants : Bibrec (métadonnées bibliographiques), QR Code (« Flashcode » bi-dimensionnel pour téléphone mobile), Facebook, Twitter (sans commentaire), HTML, EPUB, Kindle, Plucker, QiOO Mobile… L’on trouvera aussi, à l’occasion, des versions audio des livres en question, dans des formats Libres (Ogg Vorbis, Speex) et non-libres (MP3, Apple iTunes). On le voit, la priorité du projet Gutenberg est d’être visible et accessible (commodément) au plus grand nombre, même au prix de quelques « fautes de goût » Libristes.

Hart assume pleinement cette diversité :

Le projet Gutenberg est animé par des idées, des idéaux et un idéalisme.
Le projet Gutenberg n’est pas animé par un pouvoir financier ou politique.
De ce fait le projet Gutenberg est entièrement animé par des bénévoles.
Étant entièrement animés par des bénévoles, nous sommes réticents à toute forme d’autorité sur nos bénévoles, pour leur dire ce qu’ils doivent faire ou comment ils doivent le faire.

Nous offrons autant de libertés que possible à nos bénévoles, dans le choix des livres à partager, des formats dans lesquels les partager, ou toute autre idée qu’ils pourraient avoir quant à « la création et diffusion d’eBooks ».

Le projet Gutenberg n’a que faire d’établir des standards. Si c’était notre rôle, nous aurions accepté avec joie la proposition qui nous a été faite de convertir nos eBooks en HTML lorsque le Web était une idée toute nouvelle en 1993 ; nous nous satisfaisons d’apporter des eBooks à nos lecteurs dans tous les formats que nos bénévoles souhaitent produire.

(…) Nous encourageons les gens à nous faire parvenir des eBooks dans n’importe quel format, puis nous cherchons des bénévoles pour les convertir dans d’autres formats, et corriger peu à peu les erreurs d’édition.
(…) Nous voulons présenter au monde autant d’eBooks, dans autant de formats et en autant de langues, que possible.

Quelques formats exotiques ou propriétaires qu’il puisse proposer, rien ne me semble mieux illustrer la démarche d’accessibilité et d’universalité du projet Gutenberg que son choix, encore réaffirmé aujourd’hui, de proposer tous ses ouvrages sous forme de simples fichiers texte : dépourvus de mise en forme, d’illustrations ou de toute fioriture, ces fichiers symbolisent toute une mythologie Libriste remontant aux débuts de l’informatique, et qui est celle du plain-texte.

Plain text - oxygen-icons.org - LGPLL’expression « plain text » est de celles que l’on comprend aisément sans toutefois parvenir à la traduire de façon entièrement satisfaisante. Le projet Gutenberg propose « texte brut » ; Mozilla Thunderbird, sous la plume de Cédric Corazza, y ajoute « texte normal », plusieurs éditeurs en ligne proposent « texte pur », l’interface de Google Mail® indique « texte seul ». Wikipédia est tout aussi désemparé, juxtaposant allègrement, inspirez profondément, « fichier texte ou fichier texte brut ou fichier texte simple ou fichier ASCII »… et encore, ce n’est qu’après avoir rejeté la traduction littérale « plein texte », qui n’était pourtant pas la pire : le mot anglais plain (lui-même dérivé du vieux français) se situe en quelque sorte à mi-chemin de nos adjectifs « plan » et « plein ». Aucune de ces traductions, hélas, ne rend l’idée de dépouillement, de linéarité et (par association d’idées) de plénitude exprimée par le vieux mot français plain, qui me semblerait pourtant avoir là une magnifique occasion d’être remis en usage : ne pourrait-on pas parler de plain-texte comme l’on parle de plain-chant ?

Le plain-texte est, donc, le premier apport historique de l’informatique : pendant plusieurs décennies, les ordinateurs n’ont permis de n’échanger que cela. C’est aussi le plus fondamental — comme l’avait bien compris Michael Hart — et le plus irremplaçable : encore aujourd’hui, l’essentiel des communications numériques entre humains se fait sous forme textuelle. Courrier électronique, messagerie instantanée, commentaires sur le Web… Le plain-texte connait même, ces dernières années, un surprenant regain d’intérêt sous une forme minimale, avec la mode des micro-blogs dont nous serons amenés à reparler ici.

Il est également l’élément immatériel le plus versatile et le plus plastique : il peut servir à écrire des textes, des livres, des programmes ou des fichiers de configuration, à éditer des documents scientifiques ou des partitions musicales, voire à décrire des graphismes, des objets en trois dimensions, ou encore… à peu près tout ce que l’on veut.

Le plus robuste aussi, sans nul doute : un fichier texte corrompu ou tronqué a de meilleures chances d’être reconstitué qu’un fichier binaire. À l’utilisateur humain, le plain-texte demeure accessible et intelligible ; rassurant, somme toute. Le programmeur Douglas McIlroy, parrain de la philosophie Unix il y a un demi-siècle, ne disait pas autre chose : « n’écrivez que des programmes dont le format d’entrée est du texte pur, car c’est là une interface universelle. » Universalité certes très relative à l’époque, puisque le codage utilisé ne permet alors l’utilisation que d’un nombre restreint de caractères ; il faudra attendre les décennies suivantes pour conquérir le bas-de-casse (comme nous l’évoquions dans notre chronique sur rms), puis les caractères accentués et l’Unicode (d’ailleurs encore chaotique aujourd’hui)…

It ain’t what it used to be - revdode - CC by-nc-saLe plain-texte est, enfin, l’âme de l’informatique : binaire et code machine étant réservés aux tréfonds du bas-niveau des calculateurs, c’est sous forme de langages de programmation textuels, toujours plus naturels, que les programmeurs s’adressent et commandent à l’ordinateur… et même les simples utilisateurs qui, aujourd’hui encore, ont la patience d’apprendre à se servir d’interface textuelles, voient leur approche de l’informatique changée à jamais : dialoguer avec l’ordinateur en ligne de commande, c’est comprendre sa logique ; c’est intervenir directement dans son fonctionnement, sans la médiation factice et opaque d’une interface conçue par des humains pour un utilisateur déshumanisé, théorique et paresseux.

En un mot, le plain-texte est Libérateur : de fait, le mouvement du logiciel Libre ne milite pas pour autre chose, depuis trente ans, que d’avoir le droit d’accéder au code source, c’est-à-dire aux programmes sous une forme de plain-texte lisible et intelligible, modifiable et aisément partageable. La parenté avec la démarche du projet Gutenberg n’en est que plus frappante.

Libérateur, accessible,… mais également respectueux : un document en plain-texte ne s’impose pas à son lecteur, n’exige pas telle ou telle manière d’être lu. Il permet (dans un environnement graphique ou même en mode console) de choisir sa propre taille de texte, sa propre police (l’on préfèrera en général une fonte à espacement fixe, comme pour une machine à écrire). À l’époque où se développent les premières interactions sociales en ligne (e-mail dans les années 1970, Usenet dans les années 1980), la question ne se pose pas en ces termes : les limitations techniques (protocoles limités à l’ASCII, lenteur et coût des communications) imposent d’aller au plus court. C’est l’hégémonie, dans les années 1990, non seulement de l’HTML mais de l’informatique grand-public dite « personnelle » et des interfaces propriétaires qui remettra en cause, ô combien, ce modèle : advient le règne de la vulgarité, dont le parangon sera le mail en HTML, abomination que nous subissons encore aujourd’hui.

L’attitude, intègre et exigeante, qui consiste à préférer le plain-texte aux merveilles bling du texte soi-disant « riche », est souvent qualifiée d’élitiste ou de puriste (comme en témoigne l’expression « texte pur ») par ses détracteurs. Il ne s’agit pourtant aucunement de remettre en cause l’appropriation des outils informatiques par le plus grand nombre, ce dont on ne peut que se réjouir. Il s’agit d’une simple question de culture : de même que l’on attend de tout citoyen qu’il possède quelques références culturelles (à commencer par un minimum de grammaire écrite, ou une connaissance de base du code vestimentaire occidental), il est légitime de rappeler que notre culture d’internautes contemporains (faite de smileys, de memes, de flood, de flamewars et de troll) est le fruit de plusieurs générations de geeks qui l’ont construite sous forme purement textuelle. (Je m’empresse de préciser ici que je n’appartiens pas moi-même à cette génération, n’ayant pas eu l’usage d’un ordinateur avant le XXIe siècle.)

ASCII ArtRappeler également, car on l’oublie trop souvent, la puissance expressive du plain-texte. Je ne reviendrai pas ici sur l’ASCII Art, même si c’est un exemple frappant. Je suis davantage intéressé par la minutie avec laquelle les codeurs (programmeurs ou non) rédigent leur code source, développant de véritables traditions (coding styles) à la fois pratiques et esthétiques dans lesquelles il me semble voir une forme de langage expressif, métalinguistique et poétique — sur laquelle je ne m’attarderai pas davantage ici. Comme toute forme de communication, le plain-texte a subi au fil des décennies une exigence d’expressivité, et certaines traces en sont particulièrement visibles d’un point de vue formel : écrire en capitales signifie que l’on crie, insérer un smiley en fin de phrase dénote un ton ironique, et ainsi de suite.

Cette exigence d’expressivité influe même sur la structure du langage, qui se surcharge de signes. Un bon exemple en est la longueur des phrases, qui à l’oral importe bien moins que le ton et le propos : dans un message électronique en plain-texte au contraire, rien n’est plus cassant qu’une phrase courte et lapidaire, et l’on se surprendra fréquemment à rallonger artificiellement ses phrases pour ne point froisser son interlocuteur. Les effets de juxtaposition, également, sont frappants — particulièrement dans un courriel auquel l’on répond de façon entrelacée avec le message d’origine. Autre effet de juxtaposition — dont j’use abondamment dans ces chroniques sous forme d’hyperliens —, l’insertion d’URLs dans le discours. Enfin les retours à la ligne et effets typographiques, pour rudimentaires qu’ils soient, permettent une certaine dramatisation (au sens de dramaturgie) du discours ; je pourrais en donner un exemple.

Ici même.

Mais à quoi bon ?

***hausse les épaules***

Enfin bref.

Il ne serait donc pas totalement honnête de théoriser, comme je l’avais moi-même fait dans une première version de cet article, que le plain-texte permet d’ignorer la forme pour se concentrer sur le contenu. La forme est toujours présente, si discrète soit-elle ; la différence est qu’elle ne fait pas nécessairement sens par elle-même, et demande un minimum d’attention, autant à l’émetteur qu’au récepteur, pour lire, littéralement, entre les lignes de plain-texte.

Michael Hart et Gregory Newby - Marcello - GFDLL’illustration idéale de ce propos m’est, à nouveau, fournie par Michael Hart, virtuose du plain-texte s’il en fut — et Libriste engagé. Sur sa très modeste page web, il évoque quelques-uns des (trop prévisibles) ennuis juridiques qu’a pu subir le projet Gutenberg dans la dernière décennie, certains éditeurs traditionnels s’étant manifestement lancés dans une croisade contre le domaine public et l’intérêt général. Il faut lire les réponses rédigées — toutes en plain-texte, évidemment — par Hart et son bras droit Gregory Newby aux mises en demeure d’éditeurs outragés : à la fois polies, implacables… et d’une ironie mordante : un exemple à suivre. La réponse de Hart concernant le livre Anthem, en particulier, est à lire à tout prix : outre son flegme et son exactitude juridique, chaque ligne fait exactement le même nombre de caractères, le tour de force par excellence de tout geek qui se respecte…

Telle est la leçon, et le souvenir, que nous laisse Michael Hart : celui d’une époque, d’un esprit où la rigueur se mêle à l’ambition et la fantaisie, où l’économie de moyens n’empêche point l’élégance et l’humour, et où, enfin, l’attrait de la nouveauté ne laisse pas s’estomper l’Histoire et le genre humain dans son ensemble.

To Michael S. Hart, a plain human being.




Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),




Quand le patron de Google donne la leçon à l’Angleterre sur l’éducation

Rex Pe - CC byLittéraire ou scientifique ? Non, littéraire et scientifique !

La fameuse séparation culturelle française semble également de mise en Angleterre. Et selon le Directeur exécutif de Google, Eric Schmidt, elle est fortement handicapante dans le monde d’aujourd’hui.

Il est quelque part étrange de voir une multinationale faire la leçon à un État. Mais telle est l’époque dans laquelle nous vivons, et le pire c’est que Schmidt a raison. La critique fait mal pour un pays qui a été si innovant par le passé.

Il juge en outre tout à fait incohérent de ne pas enseigner l’informatique à l’école[1] pour comprendre comment les logiciels sont conçus plutôt que de se contenter de savoir les utiliser.

La situation est peu ou prou identique en France. Et nous risquons fort d’accompagner, voire devancer, la Perfide Albion dans sa chute si nous n’y faisons rien[2].

Eric Schmidt, président de Google, critique vertement le système éducatif britannique

Eric Schmidt, chairman of Google, condemns British education system

James Robinson – 26 août 2011 – The Guardian
(Traduction Framalang : DéKa)

Schmidt critique la division entre les sciences et les arts et lettres et affirme que le Royaume-Uni « devrait revenir sur les heures de gloire de l’ère victorienne ».

Le président de Google a très violemment critiqué le système éducatif britannique soutenant que le pays a échoué à exploiter sa position dominante en matière d’innovation technique et scientifique.

Au cours de la conférence annuelle Mac Taggard à Edimbourg, Eric Schmidt a évoqué « une dérive vers les sciences humaines » et a critiqué l’émergence de deux champs antagonistes « se dénigrant l’un l’autre, autrement dit, pour reprendre une expression locale, vous êtes soit un lettré, soit un matheux ».

Schmidt s’en est également pris à Lord Sugar, haut responsable du Parti travailliste et star du programme de la BBC The Apprentice, qui a récemment déclaré au cours de l’émission que les « ingénieurs n’étaient pas de bons commerciaux ». Schmidt a confié au MediaGuardian Edinburgh international TV festival : « Au cours du siècle dernier, la Grande Bretagne a brusquement cessé de former et d’encourager ses polymathes. Il faut à nouveau réunir les sciences et les arts ».

Ce vétéran de la technologie, qui a rejoint Google il y a dix ans pour aider les fondateurs Larry Page et Sergey Brin à développer la société, soutient que l’Angleterre devrait se pencher sur ses « heures de gloire » de la période victorienne pour se rappeler que les deux disciplines peuvent travailler ensemble.

« Il fut un temps où c’était les mêmes personnes qui écrivaient des poèmes et fabriquaient des ponts », dit-il, « Lewis Carroll n’a pas uniquement écrit l’un des contes les plus célèbres au monde. Il était également professeur de mathématiques à Oxford. Et Einstein disait de James Clerk Maxwell qu’il n’était parmi seulement l’un des meilleurs physiciens depuis Newton mais aussi un poète confirmé. »

Les commentaires de Schmidt font écho à ceux de Steve Jobs, qui a révélé cette semaine qu’il cessait son activité au sein d’Apple. Ce dernier a un jour confié au New York Times que « si le Macintosh a eu un tel succès c’est parce que les gens qui ont participé à sa conception étaient des musiciens, des artistes, des poètes et des historiens, qui se trouvaient être également d’excellents informaticiens ». Schmidt a rendu hommage à la si réputée innovation britannique, rappelant que le Royaume-Uni avait « inventé les ordinateurs aussi bien en théorie qu’en pratique », avant de souligner que le premier ordinateur de bureau « a été construit en 1951 par J. Lyons, originellement une chaîne de magasin de thé ».

« Cependant », dit il, « le Royaume-Uni n’a pas réussi à concrétiser ses idées pour créer de durables industries dominantes sur le marché ».

« Le Royaume-Uni est le berceau de temps d’inventions liées au médias. Vous avez inventé la photographie. Vous avez inventé la télévision », dit-il, « Pourtant aujourd’hui aucun des grands leaders de ces deux domaines ne provient du Royaume-Uni ». Et d’ajouter : « Merci pour vous innovations et vos brillantes idées. Vous n’en tirez cependant aucun bénéfice à l’échelle mondiale ».

Selon lui, les start-ups britanniques d’une certaine dimension ont toujours fini par se vendre à des sociétés étrangères, alors que c’est le contraire qui devrait se produire. « Le Royaume-Uni apporte un réel soutien à ses petites et moyennes entreprise, mais il n’y a pas grand intérêt faire germer des milliers de graines si c’est pour les laisser dépérir ou les transplanter à l’étranger. Les entreprises britanniques ont besoin d’être défendues pour pouvoir se faire une place sur le marché international, sans avoir à se vendre à des sociétés étrangères. Si vous ne relevez pas ce défi, le Royaume-Uni sera toujours le berceau de l’invention, mais pas du succès à long terme. »

Schmidt a expliqué qu’à force de ne pas enseigner la programmation à l’école, le pays inventeur de l’ordinateur était en train de « se débarrasser d’un important héritage informatique ». « J’étais sidéré », dit-il, « d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Barack Obama a annoncé en juin que les Etats-Unis formeraient 10 000 ingénieurs en plus par an. « J’espère que d’autres vont suivre. Le monde a besoin de plus d’ingénieurs », a continué Schmidt. « Pour que les entreprises innovantes britanniques puissent s’épanouir dans l’avenir digital, vous allez avoir besoin de gens capables de comprendre toutes ses facettes. Prenez exemple sur les Victoriens et ignorez les préjugés d’un Lord Sugar : Intégrez des ingénieurs dans vos sociétés à tous les niveaux, même les plus élevés. »

Notes

[1] Crédit photo : Rex Pe (Creative Commons By)

[2] On pourra également lire l’article de Slate.fr La programmation pour les enfants: et pourquoi pas le code en LV3 ?




Les enfants Montessori et le logiciel libre partagent de nombreux points commmuns

Brian Glanz - CC by-saNée dans un quartier pauvre de Rome il y a plus d’un siècle, l’originale pédagogie Montessori n’a jamais cessé d’essaimer et connaît même un fort regain d’intérêt à l’aube de ce nouveau millénaire qui nous demande une solide capacité d’adaptation aux changements.

Les fondateurs de Google ont été dans une école Montessori. Et le créateur du cèlèbre jeu SimCity en parle en ces termes : « Montessori m’a enseigné la joie de la découverte. Cela m’a montré que l’on pouvait s’intéresser à des théories complexes, comme celles de Pythagore par exemple, en jouant avec des cubes. Il s’agit d’apprendre pour soi-même plutôt que de recevoir l’enseignement du professeur. SimCity est directement issu de Montessori – si vous donnez aux gens ce modèle de construction des villes ils en tireront les principes de l’urbanisme ».

Michael Tiemann, figure du logiciel libre travaillant chez Red Hat mais aussi jeune papa, tente ici de rapprocher les deux domaines parce qu’il y voit de nombreux points communs. L’une de ses hypothèses est qu’un enfant qui aura suivi une méthode Montessori sera plus à même de comprendre, s’intéresser et s’impliquer dans le logiciel libre[1].

Par extension et extrapolation, sera-t-il plus à même de comprendre, s’intéresser et s’impliquer dans le monde d’aujourd’hui mais surtout de demain ?

Remarque personnelle : Je constate que de plus en plus de parents « bobos de gauche urbains » placent leurs enfants dans des écoles privées Montessori, pour l’épanouissement général de l’enfant mais aussi pour échapper à la carte scolaire et l’école publique du quartier.

Montessori et la voie de l’Open Source

Michael Tiemann – 12 août 2011 – OpenSource.com
(Traduction Framalang : ZeHiro et Mammig2)

Montessori and the open source way

J’ai lu avec grand plaisir l’article de Steve Denning « Montessori est-il à l’origine de Google et Amazon ? ». Son argumentaire est solide, il s’appuie sur de nombreux faits scientifiques, et il expose les résultats remarquables que l’on peut obtenir quand nous pouvons Faire confiance à l’enfant. Il écrit si bien et de façon si claire qu’il est inutile que je répète ses propos, vous pouvez (et devriez !) lire directement son article. Mais nous pouvons le compléter, en particulier en comprenant comment les principes et la philosophie de l’open source sont si proches de la méthode éducative de Montessori.

C’est en tant que parent, et assez tardivement, que j’ai découvert l’éducation Montessori. Au début, je ne connaissais strictement rien aux travaux de Montessori, mais l’école de ma fille prenait très au sérieux ses écrits et j’ai ainsi commencé à voir les liens profonds et étroits entre des activités scolaires en apparence simples. Après avoir lu La science derrière le génie, le schéma complet m’est apparu plus clairement, et depuis je suis devenu un fervent partisan de la méthode Montessori.

La thèse Faire confiance à l’enfant, développée par Montessori, repose sur l’idée d’accompagner le développement de l’individu. Montessori a montré que lorsque des enfants sont privés de la possibilité de faire leurs propres choix, alors leur personnalité ne se développe pas complètement, et ils peuvent dépendre beaucoup trop des autres pour prendre des décisions les concernant. Par analogie, l’open source permet à tous les participants, qu’ils soient utilisateurs, développeurs, distributeurs ou mainteneurs de devenir de vrais contributeurs. Cette opportunité encourage non seulement à améliorer le logiciel (dont la qualité peut être perçue comme 100 fois supérieure à celle des logiciels propriétaires), et le plus important est qu’il encourage également les individus à s’améliorer. C’est ce que j’ai pu constater en étant dans l’open source depuis plus de vingt ans et en tant que parent Montessori depuis dix ans.

“Faire confiance à l’enfant” ne se limite pas à observer ce que fera un enfant dans le cadre d’un programme éducatif imposé. Dans l’éducation Montessori, tout l’environnement est disponible pour étudier, et les enfants sont encouragés à passer du temps à l’extérieur, pour observer, inventorier, s’interroger, et chercher les connaissances nécessaires pour répondre à leurs questions. La démarche scientifique est modulaire et évolutive, c’est à dire que des résultats sont obtenus à partir de résultats qui proviennent eux-mêmes d’autres résultats.

Ces résutats scientifiques doivent être reproductibles ou bien ils ne sont pas scientifiquement acceptables. De façon similaire, la modularité naturelle des logiciels open source fait qu’ils deviennent eux-même une forme de science de la programmation. Les modules peuvent être aussi librement utilisés que les résultats scientifiques peuvent être librement reproduits. Et tout comme un grand scientifique essayera de rendre ses résultats aussi simples et accessibles que possible, il existe une forme de reconnaissance similaire pour ceux qui écrivent des logiciels qui sont le plus possible généralistes, portables, et techniquement transparents.

Une valeur primodiale de la méthode Montessori est que l’apprentissage devrait être l’affaire de toute une vie. Denning paraphrase ceci en disant que l’éducation n’est pas une destination mais un voyage. Denning observe également que ceux qui voient dans l’obtention de leurs diplômes universitaires le boût du chemin, se retrouvent dans une impasse en cas de changement. Pour ceux qui envisagent l’apprentissage comme un exercice de longue haleine, alors le changement est simplement une nouvelle opportunité d’apprendre. De la même façon, les logiciels open source ont tendance à avoir un avenir ouvert et en perpétuel développement. De nombreux logiciels et frameworks propriétaires s’élèvent puis chutent car ils sont conçus avec une idée d’achèvement. Au contraire, les logiciels open source sont constament re-écrits, re-inventés et leurs objectifs modifiés. En regardant l’évolution de Linux au court des vingt dernières années je me suis dit : a-t-il déjà existé un système d’exploitation qui ait autant évolué, aussi rapidement et soit allé aussi loin ? Voilà tout le génie d’une vision de l’apprentissage à long terme.

Un dernier point : Les enfants Montessori sont-ils enthousiastes à l’idée de mettre les mains dans le code source ? La réponse evidente vous fournira, s’il en était besoin, une ultime preuve des atomes crochus entre Montessori et l’open source.

Notes

[1] Crédit photo : Brian Glanz (Creative Commons By-Sa)




Reprenons possession d’Internet – Rebecca MacKinnon – TED Talk

Internet doit-il être au service des citoyens, des gouvernements ou des multinationales ? C’est en caricature la grande question sous-jacente de ce brillant TED talk de Rebecca MacKinnon.

Il s’agit du reste d’un étonnant mais révélateur paradoxe puisque si nous savons depuis longtemps que les intérêts des multinationales ne se confondent pas avec ceux des citoyens, il devrait en être autrement pour les gouvernements. Mais, par exemple chez nous en France, l’Hadopi est passée par là et la méfiance est plus que jamais de mise.

Liberté et contrôle dans le cyberespace… telle est l’une des tensions fondamentales de ce début de siècle. Nous pouvons faire semblant de ne pas la voir (trop occupé à modifier notre statut Facebook) mais nous pouvons aussi faire le choix de tenter de l’infléchir en notre faveur. Ce blog a l’immodestie de penser qu’il y participe dans son petit coin.

Remarque : on notera que si Apple en prend (justement) pour son grade en introduction, M. Sarkozy n’est pas non plus épargné.

—> La vidéo au format webm
—> Le fichier de sous-titres

Transcript

URL d’origine du document

Traduction française Anna Cristiana Minoli (relecture Elisabeth Buffard)
Licence Creative Commons By-Nc-Sa

Je commence avec une publicité inspirée par George Orwell qu’Apple a sortie en 1984.

(Vidéo) Big Brother : Nous sommes une seule personne avec une seule volonté, une seule résolution, une seule cause. Nos ennemis peuvent parler jusqu’à la mort, et nous les combattrons avec leur propre confusion. Nous l’emporterons. Narrateur : Le 24 Janvier, Apple Computer lancera Macintosh. Et vous verrez pourquoi 1984 ne ressemblera pas à « 1984 ».

Rebecca MacKinnon : Le message implicite de cette vidéo reste très puissant encore aujourd’hui. La technologie créée par des sociétés innovatrices nous rendra la liberté. Avancez rapidement de plus de deux décennies. Apple lance l’iPhone en Chine et censure le Dalai Lama ainsi que plusieurs autres applications politiquement sensibles à la demande du gouvernement chinois pour son app store Chinois. Le dessinateur politique Mark Fiore a également vu son application satirique censurée aux États-Unis parce que le personnel Apple s’inquiétait qu’elle puisse offenser certains groupes. Son appli n’a été republiée que quand il a gagné le Prix Pulitzer. Le magazine allemand Stern, un magazine d’actualité, s’est vu censurer son appli parce que les nourrices de Apple l’ont considérée un petit peu trop osée pour ses utilisateurs, et ce malgré le fait que ce magazine est en vente parfaitement légale dans les kiosques en Allemagne. Et encore plus controversé, récemment, Apple a censuré une appli de contestation palestinienne après que le gouvernement israélien ait exprimé des inquiétudes sur la possibilité qu’elle soit utilisée pour organiser des attaques violentes.

Donc voilà, nous sommes dans une situation où des sociétés privées appliquent des standards de censure qui sont souvent très arbitraires et généralement plus stricts que les standards constitutionnels de liberté de parole que nous avons dans les démocraties. Ou bien elles répondent aux demandes de censure de la part de régimes autoritaires qui ne reflètent pas le consentement de ceux qu’ils gouvernent. Ou bien ils répondent aux demandes et aux inquiétudes de gouvernements qui n’ont aucune juridiction sur plusieurs, ou sur la plupart, des usagers qui interagissent avec le contenu concerné.

Donc voici la situation. Dans un monde pré-Internet, la souveraineté sur les libertés physiques, ou son absence, était presque entièrement contrôlée par les états nation. Mais nous avons maintenant cette nouvelle couche de souveraineté privée dans le cyberespace. Et leurs décisions sur le codage des logiciels, sur l’ingénierie, la conception, les conditions d’utilisation agissent toutes comme une sorte de loi qui façonne ce que nous pouvons et ne pouvons pas faire avec nos vies numériques. Et leur souveraineté, transversale, mondialement interconnectée, peut d’une certaine façon défier la souveraineté des états nations de manière formidable, mais parfois agir également pour projeter et s’étendre au moment où le contrôle sur ce que les personnes peuvent et ne peuvent pas faire avec l’information a plus d’effet que jamais sur l’exercice du pouvoir dans notre monde physique. Après tout, même le leader du monde libre a besoin d’un peu d’aide du sultan du Facebookistan s’il veut être réélu l’année prochaine.

Et ces plateformes ont surement été très utiles aux activistes en Tunisie et en Égypte au printemps dernier et au delà. Comme Wael Ghonim, le cadre égyptien de Google le jour, et activiste secret de Facebook la nuit, a raconté à la CNN après la démission de Moubarak, « Si vous voulez libérer une société, il suffit de lui donner Internet. » Mais renverser un gouvernement est une chose et construire une démocratie stable est un peu plus compliqué. Sur la gauche une photo prise par un activiste égyptien qui était de ceux qui ont pris d’assaut les bureaux de la sécurité d’état égyptienne en Mars. Et de nombreux agents ont broyé le plus de documents possible et les ont laissé derrière eux en tas. Mais certains des fichiers sont restés intacts, et les activistes, certains d’entre eux, ont trouvé leurs propres dossiers de surveillance remplis de transcriptions de leurs propres échanges d’emails, leurs échanges de textos, même les conversations sur Skype. Et un activiste en fait a trouvé un contrat d’une société occidentale pour la vente d’une technologie de surveillance aux forces de sécurité égyptiennes. Et les activistes égyptiens présument que ces technologies de surveillance sont encore utilisées par les autorités transitoires qui gèrent les réseaux dans le pays.

Et en Tunisie, la censure a en fait commencé à revenir en Mai — pas aussi considérablement que sous la présidence de Ben Ali. Mais vous voyez ici une page bloquée, c’est ce qui se passe quand vous essayez de vous connecter à certaines pages de Facebook et à d’autres sites qui, selon les autorités de transition, peuvent inciter à la violence. Pour protester contre ça, le blogger Slim Amamou, qui avait été emprisonné sous Ben Ali et ensuite était rentré dans le gouvernement de transition après la révolution, a démissionné en signe de protestation. Mais de nombreux débats ont eu lieu en Tunisie sur la façon de gérer ce type de problème.

En fait, sur Twitter, il y avait un certain nombre de gens qui soutenaient la révolution qui disait, « Et bien, en fait, nous voulons la démocratie et la liberté d’expression, mais il y a certains discours qui doivent être tenus à l’écart parce qu’ils sont trop violents et pourraient déstabiliser notre démocratie. Mais le problème est, comment décider qui a le pouvoir de prendre ce genre de décisions et comment s’assurer qu’ils n’abusent pas de leur pouvoir ? Comme Riadh Guerfali, l’activiste numérique vétéran tunisien, a commenté l’incident, « Avant les choses étaient simples : il y avait les gentils d’un côté et les méchants de l’autre. Aujourd’hui, les choses sont plus subtiles. » Bienvenue dans la démocratie, amis tunisiens et égyptiens.

La réalité est que même dans les sociétés démocratiques d’aujourd’hui, nous n’avons pas de bonnes réponses à la question de comment équilibrer le besoin de sécurité et l’application des lois d’un côté et la protection des libertés civiles et la liberté de parole de l’autre dans nos réseaux numériques. En fait, aux États-Unis, quoi que vous pensiez de Julian Assange, même ceux qui ne sont pas nécessairement des grands fans sont très inquiets de la manière avec laquelle le gouvernement des États-Unis et certaines sociétés ont traité Wikileaks. Amazon en tant qu’hébergeur web a laissé tomber Wikileaks en tant que client après avoir reçu une plainte du sénateur américain Joe Lieberman, malgré le fait que Wikileaks n’ait pas été inculpé, encore moins condamné, pour aucun crime.

On présume donc qu’Internet est une technologie qui fait voler les frontières en éclat. Voici une carte des réseaux sociaux dans le monde, et il est certain que Facebook a conquis la plus grande partie du monde, ce qui peut être une bonne ou une mauvaise chose, selon que vous aimiez ou non la manière dont Facebook gère son service. Mais les frontières demeurent dans certaines parties du cyberespace. Au Brésil et au Japon, c’est pour des raisons culturelles et linguistiques uniques. Mais si vous regardez la Chine, le Vietnam et certains des anciens états soviétiques, ce qui s’y passe est plus inquiétant. Vous avez une situation où la relation entre le gouvernement et les sociétés de réseaux sociaux locales est en train de créer une situation où, effectivement, le pouvoir que pourrait donner ces plateformes est contraint à cause de ces relations entre les compagnies et le gouvernement.

En Chine, vous avez maintenant, le “grand pare-feu”, comme on l’appelle, qui bloque Facebook, Twitter et maintenant Google+ et de nombreux autres sites étrangers. Et ceci est fait en partie avec l’aide de la technologie occidentale. Mais ce n’est que la moitié de l’histoire. L’autre partie de l’histoire ce sont les conditions que le gouvernement chinois impose à toutes les sociétés qui opèrent sur Internet en Chine, qu’on connait comme un système d’autodiscipline. En anglais courant, cela signifie censure et surveillance des utilisateurs. Voici donc une cérémonie à laquelle j’ai assisté en 2009 où la Internet Society of China a remis des prix aux 20 premières sociétés chinoises les meilleures dans l’exercice de l’autodiscipline — c’est-à-dire dans le contrôle de leurs contenus. Et Robin Li, Directeur Général de Baidu, le premier moteur de recherche en Chine, faisait partie des lauréats.

En Russie, généralement ils ne bloquent pas Internet et ne censurent pas directement les sites. Mais voici un site qui s’appelle Rospil c’est un site anti-corruption. Et cette année, il y a eu un incident troublant au cours duquel les gens qui avaient fait des dons à Rospil à travers un système de paiement qui s’appelle Yandex Money ont soudain reçu des menaces par téléphone de la part de membres du parti nationaliste qui avaient obtenu des détails sur les donateurs de Rospil par le biais des membres des services de sécurité qui avaient d’une façon ou d’une autre obtenu ces informations des gens de Yandex Money. Cela a refroidi les gens quant à leur capacité d’utiliser Internet pour tenir le gouvernement responsable. Nous avons donc une situation dans le monde aujourd’hui où dans de plus en plus de pays la relation entre les citoyens et les gouvernements se fait au moyen d’Internet, qui est compromis à l’origine par des services privés.

Alors la question importante, je crois, ce n’est pas le débat pour savoir si Internet aidera les gentils plutôt que les méchants. Bien sûr, cela donnera du pouvoir à quiconque a le plus de talent dans l’utilisation de la technologie et comprend le mieux Internet par rapport à son adversaire, qui que ce soit. La question la plus urgente que nous devons nous poser aujourd’hui est comment pouvons-nous être sûrs que l’évolution d’internet est centrée sur les citoyens. Parce que je pense que vous serez tous d’accord que le seul but légitime d’un gouvernement est de servir les citoyens. Et je pourrais affirmer que le seul but légitime de la technologie est d’améliorer nos vies, et non de les manipuler ou de nous réduire à l’esclavage.

La question est donc, nous savons comment tenir le gouvernement responsable. Nous ne le faisons pas nécessairement très bien, mais nous avons une bonne idée des modèles politiques et institutionnels pour le faire. Comment tenir les souverains du cyberespace responsable de l’intérêt public quand la plupart des directeurs généraux affirment que leur principale obligation est de maximiser les profits des actionnaires ?

Et souvent la régulation du gouvernement n’aide pas beaucoup. Vous avez des situations, par exemple, en France dans laquelle le président Sarkozy dit aux directeurs généraux des compagnies Internet, « Nous sommes les seuls et légitimes représentants de l’intérêt public. » Mais ensuite il soutient des lois comme la tristement célèbre Hadopi qui déconnecte les citoyens d’Internet suite au partage de fichiers, ce que le Rapporteur Spécial des Nations-Unies pour la liberté d’expression a condamné comme une violation disproportionnée des droits de communication des citoyens, et a soulevé des questions parmi les groupes de société civique pour savoir si oui ou non certains représentants politiques sont plus intéressés par la préservation des intérêts de l’industrie du divertissement plutôt que pas la défense des droits de leurs citoyens. Et ici au Royaume-Uni on s’inquiète aussi d’une loi du nom de Digital Economy Act qui est en train de placer plus d’obligation sur les intermédiaires privés à surveiller les comportements des citoyens.

Nous devons donc reconnaitre c’est que si nous voulons avoir dans le futur un Internet centré sur le citoyen, nous avons besoin d’un mouvement sur Internet plus large et plus soutenu. Après tout, les sociétés n’ont pas arrêté de polluer les eaux, bien entendu, ou d’employer des gamins de 10 ans, uniquement parce que les cadres se sont levés un jour et ont décidé que c’était la bonne chose à faire. C’est le résultat de décennies d’activisme soutenu, de soutien de l’actionnariat et de soutien des consommateurs. De la même façon, les gouvernements ne promulguent pas de lois intelligentes concernant l’écologie et le travail uniquement parce que les politiciens se sont levés un jour. C’est le résultat d’un activisme politique très soutenu et prolongé. qui aboutit à de bons règlements, et avec lequel vous obtenez le bon comportement collectif. Nous avons besoin de la même approche avec Internet.

Nous aurons également besoin d’innovation politique. Il y a 800 ans, à peu près, les barons anglais ont décidé que le droit divin des rois ne leur allait plus tellement bien, et ils ont forcé le roi Jean à signer la Magna Carta, qui reconnaissait que même le roi qui prétendait régner de droit divin devait tout de même respecter une série de règles élémentaires. Ceci a mis en route un cycle de ce que nous pouvons appeler innovation politique, qui a conduit à l’idée de consentement des gouvernés — ce qui a été appliqué pour la première fois par ce gouvernement révolutionnaire radical en Amérique au delà de l’océan. Maintenant nous avons donc besoin de comprendre comment construire un consentement des utilisateurs du réseau.

Et à quoi cela ressemble ? Pour le moment, nous ne le savons pas encore. Mais cela demandera de l’innovation, qui ne devra pas se contenter de se concentrer sur la politique, ou sur la géopolitique, elle devra également s’occuper de questions de gestion des affaires, du comportement des investisseurs, des choix des consommateurs et également de création et construction de logiciels. Nous avons tous un rôle à jouer dans la construction du genre de monde dans lequel le gouvernement et la technologie servent les gens et non le contraire.




Bitcoin libérera-t-il la monnaie à l’échelle d’Internet ?

TraderTim - CC by-sa« Papa, tu faisais quoi quand les crédits Facebook sont devenus l’unique moyen de paiement sur internet ? »

C’est par cette phrase cinglante que s’achève le billet de notre ami Ploum, qui nous a fait l’honneur d’un article original sur le Framablog.

Le propos se divise en deux parties.

La première nous explique très clairement pourquoi nous avons urgemment besoin d’un système d’échange monétaire libre et décentralisé, à fortiori lorsqu’il s’agit de micropaiements ou de microdons.

La seconde est consacrée à Bitcoin (cf cette vidéo) qui semble potentiellement d’ores et déjà répondre au besoin mais qui n’est pas sans poser questions et problèmes[1].

Je ne sais si Bitcoin s’imposera, mais celui qui réussira lui ressemblera.

Et ce jour-là Papa sera fier d’annoncer à son rejeton qu’on pourra non seulement se passer des crédits Facebook mais qu’on n’aura plus à trembler servilement lorsque les bourses mondiales se mettent à tousser.

Décentralisation monétaire

Ploum – juillet 2011
Licence Creative Commons By-Sa

Quelle que soit votre motivation profonde, vous êtes beaucoup, parmi les lecteurs de Framasoft, à voir dans l’Internet un espace de liberté, d’expression, de communication, d’échanges, d’entraide et bien d’autres.

Afin que cette liberté soit garantie, il est nécessaire d’éviter à tout prix une centralisation qui mettrait le pouvoir absolu d’un service donné dans les mains d’une seule personne, entreprise ou gouvernement. En effet, un service décentralisé assure non seulement la pérennité du réseau mais permet également une indépendance d’un client par rapport à un fournisseur de service.

C’est pour cette raison qu’à Framasoft nous sommes de fervents défenseurs de l’email, que nous utilisons XMPP à la place de MSN, que nous préférons identi.ca à Twitter et que nous suivons avec impatience les progrès de Diaspora pour proposer une alternative à l’omniprésent Facebook.

Mais si l’entraide, la communication et l’échange sont de très belles choses, ils ne sont malheureusement pas entièrement suffisants et la majorité d’entre nous, Framasoft inclus, a encore terriblement besoin d’argent.

Alors que le troc est entièrement décentralisé, chacun troquant selon ses convenances, l’argent est un service totalement centralisé fourni par les états. D’ailleurs, ne parle-t’on pas de « banque centrale » ?

Ce système est, de plus, complètement opaque, les citoyens devant entièrement faire confiance à l’état central qui, lui-même, délègue une partie de ce pouvoir aux banques privées.

Le fait que ce soit un bien ou un mal reste sujet à interprétation. Néanmoins, en regard de la crise économique de 2008, il faut bien admettre que le résultat de l’actuelle politique économique centralisée est relativement mitigé. C’est d’ailleurs une des raisons pour laquelle certaines collectivités ont développé des systèmes d’échange locaux (SEL), en temps qu’alternative locale et auto-gérée à l’économie traditionelle.

Sur le réseau la situation n’est guère meilleure. Quelques acteurs centralisés comme Visa et Paypal monopolisent les transferts entre monnaie réelle et monnaie virtuelle. Cette situation d’oligopole leur est, bien entendu, fortement profitable : taxes à l’entrée d’argent dans le système, taxe à la sortie d’argent du système, commission sur chaque transaction. Sans compter que toutes vos dépenses, représentant une grande part de votre vie privée, sont fichées et archivées entre les mains d’entreprises pas toujours scrupuleuses.

Au final, il s’ensuit un véritable racket de l’internaute : afin que votre correspondant puisse recevoir 1€ au bout de la ligne, il n’est pas rare de devoir verser 1,20€, 1,50€ voire 1,80€, sous forme de frais fixes et de pourcentage sur la transaction. Ces frais, négligeables pour les grosses sommes, empêchent tout développement réel des petits transactions, des microdons, des micro-achats. Ces entreprises acquièrent également un pouvoir politique, s’octroyant le droit de « geler » ou de supprimer des comptes, comme ce fut le cas pour Wikileaks.

Le transfert de petites sommes est pourtant un moteur de notre économie. Si l’on hésite à acheter un album de musique à 14€, acheter une chanson à 1€ peut se faire sur un coup de tête. Les grandes entreprises ont donc développé des systèmes de « comptes » ou d’abonnements. Vous versez une somme importante en une fois que vous pourrez dépenser petit à petit. L’Apple Store ou les crédits Facebook fonctionnent sur ce principe. Mais outre le fait que ces systèmes sont centralisés, ils nécessitent d’immobiliser une grosse somme d’un seul coup et ne sont bien sûr pas interopérables. Une fois vos 25€ versés sur Facebook, ils sont irrécupérables et non-transférables en dehors des applications Facebook.

Quelques alternatives tentent également de proposer un modèle original, comme Flattr. Flattr offre en effet de déterminer une somme mensuelle fixe qui sera divisée par le nombre de dons faits chaque mois. Néanmoins, cela reste centralisé et avec des frais prohibitifs. Ainsi, Framasoft ne touche que 90% des dons faits via Flattr.

Une solution idéale serait de proposer un système d’échange monétaire libre et décentralisé. Un tel système existe et a un nom : Bitcoin.

Techniquement, le fonctionnement de Bitcoin est relativement complexe, se basant sur des algorithmes cryptographiques et le peer-to-peer. Le gros problème d’une monnaie virtuelle est d’éviter la « double dépense ». Par essence, une information virtuelle peut être répliquée à l’infini, problème qui tracasse l’industrie musicale depuis plusieurs années.

Bitcoin résout ce problème en utilisant le peer-to-peer. Lorsque Alice donne un bitcoin à Bob, elle rend la transaction publique. Les participants au réseau bitcoin (les « mineurs ») vérifient que la transaction est légitime en s’assurant que, dans leur historique des transactions, Alice est bien la dernière personne à avoir reçu ce bitcoin précis, chaque bitcoin étant unique. Les « mineurs » annoncent sur le réseau que la transaction est confirmée. Quand suffisamment de « mineurs » ont confirmé la transaction, Bob peut considérer que Alice ne pourra plus dépenser son bitcoin et qu’il en est donc le propriétaire. Si Alice tente de redépenser son bitcoin, les « mineurs » refuseront la transaction, arguant que, d’après l’historique, Bob est le légitime propriétaire du bitcoin.

Pour encourager les « mineurs » à faire ce travail de vérification, le réseau gratifie le premier mineur à vérifier chaque bloc de transactions d’un bonus. Ce bonus, qui est pour le moment de 50 bitcoins, décroît avec le temps et a pour conséquence de distribuer la monnaie graduellement à travers le réseau.

Le nombre de bitcoins ainsi générés étant une fonction décroissante, on a pu calculer que le nombre total de bitcoins ne dépasserait jamais 21 millions.

Intrinsèquement, le bitcoin n’a aucune valeur. C’est juste la preuve qu’un échange a été fait. Mais n’en est-il pas de même pour n’importe quelle monnaie ?

Afin de garantir l’anonymat, les transactions ne se font pas directement entre Alice et Bob mais entre deux adresses du type 1GTkuikUyygRtkCy5H6RMuTMGA1ypqLc1X, qui est la partie publique d’une clé de cryptage asymétrique. Bob donne à Alice son adresse et seul eux deux savent à qui appartient l’adresse. Le réseau ne possède aucun moyen de lier l’adresse réceptrice à Bob. Bob, de son côté, possède la partie privée de la clé, lui permettant de prouver qu’il est bien le destinataire de tous les bitcoins envoyés à cette adresse. Bob peut générer autant d’adresses qu’il le désire et l’usage est de générer une adresse par transaction.

La facilité d’échange et la rareté du bitcoin en font un candidat idéal pour une monnaie électronique décentralisée. Des sites de vente en ligne acceptant les bitcoins sont donc apparus sur le net. Beaucoup de personnes, tablant sur un succès futur des bitcoins, on décidé d’en acheter une certaine quantité, ce qui a fait monter le prix du bitcoin. Une véritable économie parallèle s’est développée, principalement basée sur la spéculation. La valeur du bitcoin est passée de 0,01€ en novembre 2010 à 25€ en mai 2011, avant de redescendre aux alentours de 10€ en juin 2011.

Si Richard Stallman n’a pas encore pris de position publique au sujet du bitcoin, le fait qu’il s’agisse d’un logiciel libre, décentralisé et permettant des paiements anonymes en fait la coqueluche de certains libristes. La Free Software Foundation elle-même accepte dorénavant les donc en bitcoins. Après moins de deux jours, plus de 270 bitcoins avaient été envoyés anonymement, l’équivalent de près de 700€ de dons à l’époque et 2700€ actuellement !

Mais tout n’est pas rose au pays des bitcoins et les critiques sont nombreuses.

Beaucoup s’étonnent notamment au fait d’attacher de la valeur à quelque chose qui n’en a pas. À ce sujet, le bitcoin ne diffère pas d’un bout de papier ou même d’un morceau de métal jaune brillant. La valeur attachée à un objet est en effet liée à la confiance que le possesseur a de pouvoir échanger cet objet. Mais entre accorder sa confiance à un gouvernement et l’accorder à un réseau P2P décentralisé, il y a un pas que beaucoup hésitent à franchir.

Le bitcoin est anonyme et permet de gros échanges d’argent sans aucun contrôle, tel la vente de drogue ou de services illicites. Les partisans du bitcoin répliquent que bitcoin n’est qu’un outil, comme l’est la monnaie papier. Beaucoup d’outils facilitent les activités illégales: Internet, la cryptographie, le réseau Tor. Il est d’ailleurs déjà possible d’acheter de la drogue en ligne en payant en bitcoins. Faut-il bannir ces outils pour autant ? Une chose est certaine: le bitcoin opère dans une zone encore floue de la légalité. Même les activités parfaitement licites sont confrontées à un problème de taille: comment déclarer des revenus en bitcoins ? Faut-il payer des impôts ? À ce titre, Bitcoin peut être considéré comme un gigantesque SEL à l’échelle d’Internet.

Nombreux, également, sont ceux qui pointent l’inégalité de Bitcoin. En effet, les premiers bitcoins étaient très faciles à générer. Les tous premiers entrants ont donc, sans effort, récolté des milliers de bitcoins. Est-ce que le fait d’avoir cru en bitcoin avant tout le monde est suffisant pour justifier leur nouvelle richesse ? Le bitcoin n’est-il pas une gigantesque pyramide de Ponzi ? De manière amusante, cette critique semble typiquement européenne. Dans un monde où la richesse est un signe de succès, les Américains ne semblent en effet pas y voir le moindre inconvénient, surtout dans la mesure où cet enrichissement entièrement virtuel ne s’est pas fait au détriment d’autres personnes.

Économiques, philosophiques, morales, techniques ou politiques, Bitcoin interpelle et soulève de nombreuses questions à propos du système dans lequel nous vivons, ne laissant personne indifférent. À tel point que certains se demandent si le prix actuel du bitcoin n’est pas entièrement artificiel et créé par l’enthousiasme des spéculateurs. Sa difficulté d’utilisation et l’apparent amateurisme des sites acceptant les bitcoins ne semblent pas plaider en faveur du bitcoin.

En Juin 2011, MtGox.com, le principal site d’échange de bitcoin contre des dollars, a été piraté et des opérations ont été réalisées de manière frauduleuse, plongeont l’économie du bitcoin dans l’incertitude pendant une semaine complète. La valeur du bitcoin n’en a que peu souffert mais, pour certains, l’évênement a été un signal d’alarme: le bitcoin est encore très expérimental et sa valeur peut tomber à zéro en quelques heures.

Mais, malgré tout, Paypal, les crédits Facebook et les pièces d’or de World of Warcraft nous ont démontré que la généralisation des monnaies virtuelles est une évolution inéluctable. Si elle n’est pas exempte de critiques, Bitcoin semble à ce jour la seule alternative libre et décentralisée utilisable.

Bitcoin disparaitra-t-il comme une bulle spéculative après quelques mois ? Transformera-t-il durablement la société ? J’avoue ne pas en avoir la moindre idée mais je sais que mon plus grand cauchemar est de me réveiller un matin avec une petite tête blonde me demandant auprès de mon lit: « Papa, tu faisais quoi quand les crédits Facebook sont devenus l’unique moyen de paiement sur internet ? »

Notes

[1] Crédit photo : TraderTim (Creative Commons By-Sa)




Unhosted : libre et salutaire tentative de séparer applications et données sur le Web

Michiel de JongIl est désormais possible de se passer de la suite bureautique Microsoft Office et du système d’exploitation Windows en utilisant de fiables alternatives libres (GNU/Linux et Libreoffice pour ne pas les nommer).

Mais quid du réseau social Facebook et des services Google par exemple ? Est-il possible de proposer des alternatives libres à ces applications dans les nuages du web qui demandent une énorme bande passante et nécessitent des batteries de serveurs, avec tous les coûts faramineux qui vont avec (et que ne pourra jamais se permettre le moindre projet libre qui commence avec cinq gus dans un garage) ?

L’enjeu est de taille car c’est de nos données qu’il s’agit et dont on fait commerce.

Une piste de solution, qui sur le papier semble tout autant lumineuse que triviale, serait de pouvoir séparer l’application web des données que cette application traite. L’application serait quelque part sur un serveur et les données ailleurs sur un autre serveur (chez vous par exemple).

Imaginez un Facebook où toutes les données de ses utilisateurs ne seraient plus sur le site et les serveurs de Facebook ! Facebook serait bien bien plus léger du coup à administrer (moins rentable aussi c’est sûr).

Finis la centralisation et le contrôle sur vos données qui retrouvent du même coup une liberté qu’elles n’auraient jamais dû perdre. Et le web (re)devient un meilleur web.

C’est l’objectif pour le moins ambitieux mais ô combien urgent et utile du projet Unhosted conduit par Michiel de Jong dont nous vous proposons une instructive et enthousiasmante interview ci-dessous.

On notera au passage que le projet collabore avec Libreoffice. À quand un « Google Docs Killer » basé sur unhosted ?

On remarquera également que le projet n’hésite pas à accorder de suite une forte importance au confort de l’utilisateur. Extrait : « Nous avons besoin que les utilisateurs finaux sautent le pas, or les utilisateurs finaux ne comprennent souvent pas bien les principes du logiciel libre, mais si on fait des applications vraiment agréables, ils viendront pour les applications, et resteront pour la liberté. »

Bonne lecture. La problématique exposée ici constitue certainement l’un de nos prochains combats. En fait la bataille a déjà commencé. Elle s’annonce rude mais on déplacé tant de montagnes par le passé qu’il n’y a aucune raison de perdre confiance et de laisser le champ… libre aux seuls monopoles commerciaux à la taille démesurée.

Mais avant cela rien de tel que cette courte vidéo introductive pour se mettre dans le bain et comprendre plus encore de quoi il est question :

—> La vidéo au format webm
—> Le fichier de sous-titres

Entretien de Michiel de Jong avec la communauté

Fellowship interview with Michiel de Jong

Chris Woolfrey – 23 avril 2011 – Followship of FSFE
(Traduction Framalang : Pandark, Pyc et Slystone)

Michiel de Jong a travaillé comme programmeur, chercheur et administrateur système à Amsterdam, Oxford, Londres et récemment à Madrid en tant qu’ingénieur en scalabilité (ou adaptabilité) pour le réseau social espagnol Tuenti. L’hiver dernier il a pris deux mois de vacances (de hacker) à Bali pour monter le projet Unhosted. Il vit maintenant à Berlin avec Kenny Bentley et Javier Diaz, où ils prévoient de travailler à plein temps sur le projet si les donations le permettent.

Chris Woolfrey : Pouvez-vous expliquer ce qu’est le projet Unhosted avec vos propres mots ?

Michiel de Jong : Il y a plusieurs manières de le présenter ; mon approche préférée est l’angle du logiciel libre. Le terme de logiciel libre signifiait auparavant que l’on avait un pouvoir de contrôle (utilisation, partage, étude et amélioration) sur le code source et le logiciel exécuté par l’application, c’est la définition utilisée par la FSFE.

À l’époque, c’était suffisant. On considérait comme acquis le contrôle des données traitées par l’application ; c’est évident, elles sont sur votre ordinateur ou votre serveur, sur lequel vous avez un accès complet aux données utilisées par vos applications.

Concernant les logiciels installés, que ce soit sur un ordinateur de bureau ou sur un serveur, cette vision était juste : si vous contrôlez le code source, vous possédez la liberté logicielle. Mais ensuite, lentement, les logiciels installés ont été remplacés chez l’utilisateur par des logiciels hébergés (comme Google Docs, Facebook et Twitter). Ces sites web hébergés ne sont alors plus une source d’information comme les classiques sites web d’avant ; ce sont des applications interactives, et la liberté logicielle n’existe pas dans ce contexte.

Il est absurde que les logiciels hébergés vous fassent céder vos données à l’auteur de l’application en question, mais c’est ainsi que cela se passe. Cela s’est installé progressivement et insidieusement, car les sites web d’information sont devenus peu à peu des sites dynamiques, et ces sites dynamiques ont commencé à accepter les contributions d’utilisateurs et sont peu à peu devenu des applications interactives. Désormais, les logiciels hébergés sont largement utilisés, souvent en lieu et place d’anciennes applications installées localement sur les ordinateurs.

Dans la transition des applications locales aux application hébergées, la liberté logicielle a été oubliée. Personne ne parle plus désormais de logiciels installés localement, on parle de logiciels hébergés, et pourtant certains disent « Mon ordinateur ne contient que des logiciels libres ; seul le microprogramme de la carte graphique est propriétaire », et c’est une erreur car une bonne partie des « logiciels » qu’ils utilisent ne sont pas installés localement sur leur ordinateur mais utilisés au travers d’un navigateur internet.

Le projet Unhosted a pour but d’inventer et promouvoir un moyen de résoudre ces problèmes. La liberté logicielle doit, de nos jours, être non seulement la liberté du code mais aussi celle des données.

CW : Comment Unhosted permet-il ceci ?

MdJ : Nous séparons le code d’une application de ses données.

Quand vous vous connectez à une application web Unhosted, l’URI affichée dans la barre d’adresse indique l’emplacement du code de l’application, mais le nom de domaine suivant l’arobase de votre identifiant indique l’emplacement de vos données ; ce qui libère vos données de l’emprise du serveur de l’application, tout en libérant ledit serveur de la charge de l’hébergement de vos données.

Ceci implique que l’hébergement d’applications libres redevient possible sur le web. Après tout, il existe un évident substitut libre à Microsoft Windows : GNU/Linux, comme il existe un évident substitut libre à Microsoft Office : Libre Office.

Mais quel logiciel libre pour remplacer aussi évidemment Google Docs ? Pourquoi ne pas se connecter à « www.libredocs.org », par exemple, et utiliser là des applications web libres, comme pour un logiciel installé localement ?

La réponse simple est le coût inhérent au fonctionnement d’une application distante, trop élevé pour permettre la fourniture de ces services gratuitement. Pour coder du logiciel libre, il suffit que des développeurs y consacrent du temps et du savoir-faire. Mais il est impossible de proposer des logiciels libres en ligne sans coût financier, parce que cette activité nécessite l’utilisation de serveurs, et qu’il faut rétribuer les hébergeurs.

En séparant le code des données, laissant leur traitement au navigateur, notre solution règle ce problème : il devient très économique d’héberger des applications web libres parce que vous n’avez à héberger que l’application elle-même, son code, pas les données qu’elle doit traiter.

C’est le côté « libérez les applications du poids des données » de notre projet. Puis arrive l’autre coté : le logiciel c’est du code et des données, le logiciel libre c’est du code libre et des données libres.

Avec Unhosted, la liberté des données est assurée par le choix, lors de l’inscription à une application, du domaine devant héberger vos données pour vous. Vous pouvez ouvrir un compte chez un fournisseur de services (ils sont en train d’être mis mettre en place) ou demander à l’administrateur réseau de votre université ou de votre entreprise d’héberger un nœud pour celle-ci ; de cette façon, tout bénéficiaire d’une adresse « @quelquepart » aura la possibilité d’obtenir un compte Unhosted avec le même nom d’utilisateur.

CW : Y a-t-il des bénéfices en termes de vie privée à utiliser Unhosted en comparaison avec une application web qui conserve à la fois le code et les données à distance ?

MdJ : En utilisant une application Unhosted, toutes vos données sont chiffrées par le navigateur avant d’être transmises au serveur hébergeant votre compte Unhosted. De cette façon, les données confiées à votre compte Unhosted peuvent se trouver sur n’importe quel serveur, parce que, bien que vous vous reposiez sur ce serveur pour permettre un accès à vos données, ces données sont stockées et chiffrées, ainsi vous n’avez pas à craindre que l’hébergeur du compte lise vos messages, par exemple. Les données stockées par une application Unhosted sont chiffrées par votre navigateur avant d’être transmises et enregistrées sur votre compte, et elles seront déchiffrées au moment de leur sollicitation par le navigateur, au moment de leur utilisation. Le serveur hébergeant vos données Unhosted est aveugle ; il transmet vos données vers et depuis des sites web Unhosted sans pouvoir lire leur contenu.

Utiliser JavaScript pour la cryptographie n’a habituellement aucun intérêt, parce que si un site web contient des scripts JavaScripts pour chiffrer des données, alors ces mêmes scripts peuvent être utilisés pour espionner ces données chiffrées.

Avec Unhosted il en va autrement car nous séparons le domaine qui fournit l’application de celui qui héberge les données. L’hébergeur du compte Unhosted (celui des données) ne pourra pas accéder aux scripts de cryptographie de l’application, donc l’application Unhosted peut chiffrer des données que le serveur du compte Unhosted ne poura pas déchiffrer.

CW : Quel genre d’applications convient d’après vous le mieux à l’utilisation d’Unhosted ? Quel types d’applications Web vous attendez-vous à voir adopter Unhosted en premier ?

MdJ : Toutes les applications qui n’enregistrent pas un grand nombre de données utilisateur peuvent être facilement adaptées à Unhosted.

Ce sont toutefois les applications comme Google Docs, nécessitant le stockage de beaucoup de données utilisateur importantes, qui bénéficieraient le plus du passage à Unhosted. Celà pourrait aussi bénéficier grandement au parallélisme (informatique). Cependant, pour d’autres services, comme les moteurs de recherche, il faudra trouver de bons algorithmes pour permettre un fonctionnement plus décentralisé. En général, toute application web qui nécessite le stockage d’un grand nombre de données personnelles peut tirer profit d’Unhosted.

CW : Il y a une effervescence actuellement autour de projets libres décentralisé pour proposer des alternatives au réseau social Facebook (Diaspora, Appleseed…) ou au moteur de recherche Google (YaCy, Seeks…). Quel impact et comment pourrait s’adapter votre travail à des projets comme Diaspora, Appleseed et, Seeks ou YaCy ?

MdJ : Unhosted a été d’une certaine façon créé sur la mailing list des développeurs de Diaspora. Nous discutions du basculement de Diaspora de PGP vers SSL, et de la façon dont un chiffrement « de bout en bout » serait plus adapté. Alors j’ai commencé à développer un système de chiffrement de données en Ajax. Il était destinée à intégrer Diaspora. Plus tard, j’ai réalisé qu’il pourrait avoir bien d’autres applications.

Il nous reste encore à écrire une application « sociale » Unhosted qui pourrait fédérer Diaspora et Appleseed. YaCy étant un moteur de recherche, il nécessitera un travail travail d’ingénierie plus conséquent avant de l’intégrer dans l’architecture des applications web d’Unhosted.

Outre ceux que vous avez évoqués, nous avons aussi été approchés par LibreOffice pour discuter de la façon de faire fonctionner ensemble Unhosted et LibreOffice. Ce fut un grand honneur. Nous mettons actuellement en œuvre un cloud-sync Unhosted pour LibreOffice. Il ne déplace pas exactement LibreOffice sur le web, c’est à dire que toute l’application n’est pas dans votre navigateur, mais il fait de LibreOffice un « navigateur de documents », similaire à un « navigateur web », et il sera compatible avec les standards web que nous avons rendu publiques il y a trois semaines.

Pour le reste, nous ne faisons que commencer. Nous avons mis en ligne une application de démonstration qui montre le principe : http://myfavouritesandwich.org. Les gens peuvent copier cette démo et s’en servir comme un « Hello World! », de base pour l’utilisation d’Unhosted.

CW : En voilà un super nom de domaine !

MdJ : Au départ c’était myfavouritecar.org mais Javier estimait que myfavouritesandwich.org était plus marrant.

CW : L’apparence du projet est-elle importante pour vous ?

MdJ : 33% de notre équipe à plein temps est un graphiste. C’est une autre caractéristique relativement unique de ce projet ; je ne pense pas que beaucoup de projets de logiciels libres atteignent ce pourcentage. Nous avons besoin que les utilisateurs finaux sautent le pas, or les utilisateurs finaux ne comprennent souvent pas bien les principes du logiciel libre, mais si on fait des applications vraiment agréables, ils viendront pour les applications, et resteront pour la liberté.

Il n’y a pas de barrière d’entrée pour l’utilisateur : c’est une caractéristique importante pour nous. L’utilisateur n’a pas besoin de savoir si une application est complètement hébergée ou Unhosted. Si l’utilisation d’Unhosted devient transparente, alors nous aurons fait un bon travail.

Il nous faut convaincre les développeurs web de créer des applications Unhosted, et leurs clients n’ont même pas besoin de savoir précisément ce que c’est. Si un client demande à un développeur une nouvelle application, le développeur doit pouvoir juste répondre « OK, on va utiliser la dernière technologie pour développer cette application pour vous », et créer alors une application Unhosted. Le client n’a pas besoin qu’on lui signale l’utilisation d’une architecture Unhosted, seul le développeur doit le savoir.

Nous voulons créer quelques applications de démonstration qui soient vraiment agréables à utiliser, de façon à pouvoir éviter les stigmates qu’associent souvent les non-convertis aux logiciels libres (par exemple un logiciel libre peut bien fonctionner mais il est souvent moche). Je pense qu’il est important que les logiciels libres soient beaux et agréables à utiliser. Beaucoup de projets font du très bon travail aujourd’hui, et nous voulons être l’un d’eux. Voilà pourquoi 33% de notre équipe à plein temps est consacrée au graphisme.

CW : Il semble que vous essayez d’attirer des gens en dehors de l’écosystème existant des logiciels libres. Pensez-vous qu’il y ait des avantages évidents à utiliser Unhosted pour des entreprises et associations non concernées par les logiciels libres ?

MdJ: Oui, certainement. Tout d’abord, une entreprise qui utilise des logiciels comme moyen de production peut vouloir utiliser un chiffrement de bout en bout, de façon à ce que les secrets de l’entreprise ne quittent pas son réseau privé virtuel, mais qu’elle puisse tout de même utiliser le stockage sur les serveurs d’Amazon, par exemple. Ainsi, ils peuvent bénéficier d’applications web Unhosted avec des comptes Unhosted qui stockent des données chiffrées sur des serveurs Amazon, et le tout fonctionnera dans les navigateurs web de leur personnel, sans avoir à installer de logiciels chez eux.

De plus, l’évolutivité et la robustesse d’une architecture distribuée peuvent être un choix stratégique pour une entreprise : si vous désirez proposer une application propriétaire, mais ne voulez pas que vos serveurs soient le maillon faible du système, alors Unhosted apportera à vos applications moins d’indisponibilité, ou au moins les incidents ne toucheront pas tous les utilisateurs et votre application ne sera pas entièrement indisponible à cause de problèmes localisés. Enfin, le coût d’hébergement d’une application Unhosted est bien moins élevé que celui d’une application traditionnelle.

C’est un grand avantage pour les projets libres qui, à l’heure actuelle, ne peuvent simplement pas s’offrir l’hébergement d’applications web, mais pour les applications propriétaires c’est aussi une opportunité intéressante, parce que cela permet de réduire les coûts. Il y a donc là une activité commerciale possible comme fournisseur de comptes Unhosted. Selon le nombre d’applications intéressantes que nous pouvons susciter et promouvoir, des entreprises de ce type écloront, et alors les utilisateurs pourraient avoir un unique identifiant pour l’ensemble des applications Unhosted qu’ils utiliseront.

Les possibilités d’interopérabilité entre les applications sont elles aussi enthousiasmantes — la séparation des applications et des données permettra aussi (quand une complète compatibilité des formats le permettra) de basculer sur un autre site et constater, par exemple, que tous vos albums de photos sont bien là, pour revenir au site précédent pour voir que vos modifications ont été prises en compte instantanément, sans avoir à faire d’import ou d’export, parce que les données sont les mêmes.

Ce sera une expérience incroyable pour les utilisateurs finaux quand nous arriverons à faire fonctionner tout cela ! Certaines personnes ne se soucient pas d’évolutivité, de pérennité, de robustesse, de chiffrement, de vie privée, des applications dans le domaine public ou de logiciels libres, etc., ils ne se soucient que des possibilités d’interopérabilité des données. Ce type d’interopérabilité pourrait être le meilleur atout du projet Unhosted.

CW : Pourquoi a-t-il fallu attendre jusqu’à maintenant pour qu’un projet comme Unhosted voit le jour ?

MdJ: Je pense que tout cela est très récent. Il y a un an, on ne se rendait pas forcément compte qu’il y avait un problème avec nos données. Oui, il y a eu l’article de Richard Stallman au sujet de SaaS, puis les excellentes présentations de Eben Moglen, mais pendant ce temps-là, Facebook est devenu de plus en plus dominant. Sans oublier des projets tout neuf comme le Chrome Web Store et Chrome OS.

Il y a deux ans, ça n’était pas aussi évident. Enfin, je sais que je n’aurais pas pu envisager tout cela il y a deux ans, mais je pense que c’est le bon moment maintenant. Un grand nombre de ces idées ne sont pas les miennes. Certains principes importants viennent de Tim Berners-Lee et Zooko, je les ai juste rassemblées et ai rédigé un « manifeste » sur le sujet, ce qui encore une fois, est essentiellement copié d’Eben Moglen et Richard Stallman.

CW : Comment prévoyez-vous de travailler à plein temps sur Unhosted ?

MdJ : Nous ambitionnons de récolter pendant les prochains mois 36000 €. Nous avions le choix entre créer une entreprise ou développer entièrement le projet dans le cadre d’une association à but non lucratif.

Nous avons choisi la voie non marchande car nous pensons qu’il est important de le faire de cette façon. Nous sommes trois ingénieurs à plein temps, et nous avons l’intention de trouver un hackerspace à Berlin pour nous accueillir tous les trois, plus deux bureaux libres pour les hackers en visite. Nos locaux seront ouverts aux vacanciers qui voudraient passer une semaine à Berlin, trainer dans nos locaux et contribuer à libérer le web. Les loyers sont très bon marché à Berlin, toutefois chacun de nous a besoin d’environ 1000 € par mois pour vivre.

Nous sommes très impliqués dans ce projet. Prochainement, nous publierons des outils et des applications de démonstration afin de faire avancer le web Unhosted, et nous nous occuperons des détails à mesure que nous progresserons. Unhosted est un projet communautaire, entièrement ouvert, mais je pense qu’il est bon d’avoir une structure « fondation plus communauté », avec une petite équipe entièrement dédiée au projet, pour constamment lui donner une impulsion.

Nous encourageons les personnes intéressées à s’inscrire à notre liste de discussion, nous suivre sur Identi.ca et Twitter, et à rejoindre notre canal IRC. D’autre part, nous encourageons les développeurs à forker nos applications de démonstration pour développer leurs propres applications Unhosted.

Le web Unhosted commence aujourd’hui…