Manuel « Introduction à la science informatique » – Commentaires sur les commentaires

La mise en ligne sur le Framablog de l’article Sortie du manuel « Introduction à la science informatique » a naturellement suscité des commentaires, bienvenus, variés et intéressants.

Quelques éléments pour poursuivre le débat entamé.

1) Quelle culture générale scolaire au 21è siècle ?

L’enseignement de spécialité optionnel « Informatique et Sciences du numérique » créé en Terminale S à la rentrée 2012 est un enseignement de culture générale. Comme il y en a d’autres au lycée : mathématiques, histoire-géographie, sciences physiques, philosophie… Il n’a pas vocation à former des spécialistes, cela étant il peut contribuer à susciter des vocations. Il correspond aux missions du système éducatif, à savoir former l’homme, le travailleur et le citoyen.

Les disciplines enseignées évoluent au fil du temps. On ne fait plus de géométrie descriptive en mathématiques mais des probabilités et des statistiques. Le latin et le grec n’ont plus la même place qu’au début du siècle dernier. Les sciences physiques sont devenues discipline scolaire car elles sous-tendaient les réalisations de la société industrielle. Or le monde devient numérique… L’informatique doit avoir sa place dans la culture générale scolaire car elle fait partie de la culture générale de notre époque. C’est un choix que la société fait, doit faire. Car il est clair que l’on ne peut pas tout étudier à l’Ecole. Il faut choisir le « midi qui a le plus de portes ».

Dans les commentaires, un argument nous a quelque peu surpris. Il ne faudrait pas d’informatique à l’École car « cela dégoûterait les élèves ». Le propos vaut-il pour la lecture ? N’apprenons pas à lire aux enfants. Comme cela ils ne seront pas dégoûtés et tous sauront lire. Pas sûr…

Il a été fait état, c’est inévitable, de la comparaison avec la conduite des automobiles. Rappelons que conduire une voiture, en fabriquer et étudier la thermodynamique sont trois activités de natures différentes. Comme l’utilisation des ordinateurs, leur fabrication et la science informatique le sont.

Tout le monde a en tête les débats vifs qui ont accompagné la transposition de la directive européenne DADVSI ou le vote de la loi Hadopi, et du sentiment que l’on a pu éprouver que beaucoup ne savaient pas de quoi ils parlaient. Quand les citoyens s’intéressent au nucléaire ils peuvent peu ou prou se référer à ce qu’ils ont appris à l’école en cours de sciences physiques (atome, courant électrique…). Quand ils s’intéressent aux OGM ils peuvent se référer à leurs cours de SVT. Le problème concernant l’informatique et le numérique est qu’il n’y a pas encore de cours d’informatique, scientifique et technique.

Enseigner une discipline informatique au lycée signifie fondamentalement être en phase avec la société telle qu’elle est devenue.

2) Pourquoi de la programmation ?

Faisons un détour par les mathématiques. Tous les élèves en font, de la Maternelle à la Terminale. Pourtant, bien peu seront chercheurs en mathématiques. Et tous ne seront pas ingénieurs ou professeurs de mathématiques. Ils apprennent à résoudre des équations, chose qu’ils ne feront plus le reste de leur vie. Ils étudient et construisent des fonctions. Pourquoi ? Parce qu’il est important de savoir qu’une grandeur peut dépendre d’une autre grandeur. Que, par exemple, la courbe du chômage indique une progression, éventuellement une accélération de cette progression. Pour s’approprier ces notions, il y a tout un long cheminement avec des appropriations de notions dont on ne se servira plus dans la vie. Mais il reste la culture, à savoir ce qui reste quand on a tout oublié !

Il en va de même pour la programmation. Elle est avec l’algorithmique, la théorie de l’information, l’architecture et les matériels l’un des quatre grands domaines de l’informatique, constituant une clé de voûte où les quatre arcs qui structurent l’informatique se rejoignent, A ce titre elle est déjà incontournable. Elle permet de comprendre ce qu’est l’informatique, de percevoir sa « nature profonde », de s’en imprégner. Pour s’approprier des notions (fichier, protocole de communication, « verrou mortel »…), rien de tel que d’écrire des « petits » programmes.

Cela vaut également pour l’apprentissage des autres disciplines. Encore faut-il que les élèves sachent programmer ! La programmation est un élément de cursus informatique apprécié des élèves, car elle les place dans une situation active et créative, dans laquelle ils peuvent eux-mêmes fabriquer un objet. On constate en effet avec l’ordinateur une transposition des comportements classiques que l’on observe dans le domaine de la fabrication des objets matériels. À la manière d’un artisan qui prolonge ses efforts tant que son ouvrage n’est pas effectivement terminé et qu’il fonctionne, un lycéen, qui par ailleurs se contentera d’avoir résolu neuf questions sur dix de son problème de mathématiques (ce qui n’est déjà pas si mal !), s’acharnera jusqu’à ce que « tourne » le programme de résolution de l’équation du second degré que son professeur lui a demandé d’écrire, pour qu’il cerne mieux les notions d’inconnue, de coefficient et de paramètre. Ces potentialités pédagogiques de la programmation, qui favorisent l’activité intellectuelle, sont parfois paradoxalement et curieusement oubliées par des pédagogues avertis (qui, par ailleurs apprécient les vertus de l’ordinateur et d’internet, outil pédagogique).

De plus, la programmation est une excellente école de la rigueur, de la logique. Vraiment, pourquoi s’en priver ?

3) Formation de culture générale et formations professionnalisantes

Si les disciplines scolaires sont générales et concernent tous les élèves, il n’empêche qu’elles contribuent à donner des fondamentaux que certains retrouveront dans leurs formations ultérieures et leur vie professionnelle. Toutes les disciplines sont des outils au service des autres, et aussi des fins en soi. Cela vaut par exemple pour les mathématiques qui sont au service des sciences physiques ou des sciences économiques. Et pour l’informatique bien sûr. Plus les disciplines sont au service des autres, plus elles deviennent une fin en elles-mêmes. Plus elles sont des composantes majeures de la culture des hommes. Informatique et littérature même combat. Écrire un programme ou écrire un texte sont deux activités d’égale dignité, tout aussi passionnantes l’une que l’autre : une fin en soi !

Une formation structurée sur une longue durée doit être organisée comme une fusée à deux étages : les premières années doivent être consacrées à l’apprentissage de savoirs fondamentaux, puis doivent venir les savoirs spécialisés, qui ont vocation à être directement utilisés dans (les premières années d’) une activité professionnelle. Par exemple la formation d’un médecin consiste à apprendre d’abord (dès l’école primaire, le collège et le lycée) des généralités sur l’anatomie et la physiologie humaine, avant d’apprendre tel ou tel geste chirurgical ou la posologie de tel ou tel médicament. Cette seconde phase de la formation est très variable en fonction du métier que l’on souhaite exercer : les mêmes savoirs spécialisés ne sont pas nécessaires à un ophtalmologiste et un anesthésiste, alors que l’un et l’autre doivent savoir que le cœur est à gauche et le foie à droite ou qu’une cellule humaine contient vingt-trois paires de chromosomes.

Avec l’arrivée de l’informatique au lycée se pose la question de l’identification des savoirs fondamentaux que l’on souhaite partager, non avec ses collègues, mais avec tous. Pour faire partie de la culture générale ces savoirs doivent :

  • avoir une certaine stabilité,
  • donner une image diversifiée, mais cohérente de la discipline,
  • éclairer la vie quotidienne, mais aussi ouvrir de nouveaux horizons,
  • permettre de comprendre comment utiliser des objets mais aussi comment ils sont conçus,
  • être agréables et valorisants à apprendre.

Les besoins croissants en matière d’informatique et de numérique concernent des compétences diversifiées qui évoluent rapidement (outils, langages…), des métiers nouveaux avec peu de formations existantes (web 2,0, e-économie…). Cela signifie qu’il faut distinguer la formation pour tous aux fondamentaux de culture générale informatique, scientifique et technique, dans l’enseignement scolaire et dans l’enseignement supérieur, et les formations professionnalisantes qui, de par les évolutions incessantes des besoins, doivent justement pouvoir s’appuyer sur une solide formation initiale.

Jean-Pierre Archambault
Gilles Dowek




Dans les ateliers libres du futur tout objet produit est en bêta

Il y a de l’espoir. Qu’on les appelle fab lab ou, comme ici, open source workshops, il se passe véritablement quelque chose dans le monde matériel actuellement. Quelque chose qui localement nous donne envie de nous retrouver pour créer ensemble et donner du sens à cette production[1].

Dans ce monde en gestation, certains mots comme compétition, délocalisation, marketing, argent, banque, normalisation… s’estompent pour laisser place à un vivre ensemble potentiel qui sonne moins creux que dans la bouche des politiciens.

Il en aura fallu passer par internet, et par l’expérience virtuelle probante de projets collaboratifs comme le logiciel libre ou Wikipédia, pour en arriver là. Là c’est-à-dire en des lieux où il ne tient qu’à nous de faire pousser nos propres ateliers libres, tel l’Open Design City de Berlin dont nous vous racontons l’histoire ci-dessous.

Comme le dit Stallman lorsqu’il nous salue : « Happy Hacking! »

Un aperçu du futur du « Do It Yourself » : les ateliers libres – Tout produit est en bêta !

A Peek at the Future of DIY: Open-source Workshops – Every product is beta!

Jude Stewart – 4 octobre 2010 – Fast Co Design
(Traduction Framalang : Lolo le 13, Goofy, Julien, Mammig et Martin)

Le « faites-le vous-même » (NdT : Traduction littérale et non satisfaisante du DIY pour Do It Yourself) règne en maître dans le monde virtuel. Nous pouvons en effet aujourd’hui construire librement et sans trop de frais nos propres blogs, e-books et magazines Web. Par contre fabriquer des choses réelles, palpables et tangibles semble être le domaine réservé de ceux qui savent s’y prendre avec un marteau et des clous.

Fast Co Design

Ce n’est pourtant plus le cas désormais. La révolution open source est en train de mettre la conception des produits entre les mains de tout un chacun. Prenez l’Open Design City (ODC) basé à Berlin. C’est un atelier dans lequel n’importe qui peut apprendre à faire à peu près n’importe quoi, du portefeuille en bioplastique à la lampe à pull-overs (cf ci-dessous). La recette est simple comme un sourire : rassemblez des personnes qui veulent partager des idées et collaborer, apprennez-leur à utiliser quelques machines-outils, puis faites des choses sympas ensemble.

C’est un mouvement qui peut potentiellement se substituer à la manière traditionnelle de concevoir et fabriquer industriellement des objets, voire même changer notre mode de consommation. « Je crois fortement que nous verrons émerger de plus en plus d’espaces comme celui-ci » dit Christoph Fahle d’Open Design City. « Nous ne sommes pas à proprement parler dans du développement scientifique, parce que pour que cela marche, il n’y a pas besoin d’expert en balistique. Il s’agit plutôt de favoriser les interactions sociales permettant de créer de nouvelles choses. Si vous regardez Facebook, ce bien moins sa technologie qui a influencé les usages que l’idée du réseau social

Les ateliers ouverts sont une conséquence et un prolongement de la fièvre que connaît actuellement le Do It Yourself. Il y a beaucoup de ressources et d’énergie sur des sites comme MAKE, Instructables.com et IKEAhacker ou de réseaux de vente comme Etsy et Supermarket. Aujourd’hui les gens peuvent acheter leurs propres imprimantes 3D pour moins de 1 000 $.

Fast Co Design

Le co-fondateur Jay Cousins est arrivé dans Open Design City par une voie détournée. Il était un concepteur de produits haut de gamme spécialisé dans ce qu’il appelle la vaisselle et il fut déçu de cette expérience. « Ce travail s’est transformé en piège, tout devenait management au lieu d’être créativité » se souvient-il. « C’est ce qui m’a fait penser en un lieu où les concepteurs et les inventeurs se retrouvent ensemble pour participer à la production. » À la recherche d’une nouvelle inspiration, Jay Cousins a déménagé à Berlin en 2009 et a attéri à Palomar 5, un espace innovant sponsorisé par Deutsche Telecom (malgré son nom qui sonne très hippie). À Palomar 5, « nous avons beaucoup observé comment nous nous collaborions » dit Jay Cousins. « Vous entrez dans un intense conscience de ce qui vous soutient dans votre énergie créative et de ce qui vous bloque ». Là-bas, il rencontra Christopher Doering, un concepteur produit qui est passé par la Bauhaus University de Weimar.

Après ces six semaines à Palomar 5, tout deux eurent envie de créer leur propre atelier ouvert. La fortune souriant aux audacieux, l’occasion de présenta et, au cours du printemps dernier, Jay Cousins et Christopher Doering mirent sur pied un atelier DoIt Yourself à Betahaus, un nouvel espace de travail collaboratif dans le quartier Kreuzberg de Berlin, Open Design CIty était né.

Fast Co Design

Fast Co Design

À Open Design City les travailleurs du premier étage peuvent déambuler au rez-de chaussée et louer des outils à l’heure ou au jour. Ils peuvent participer à un atelier ouvert dans lequel un responsable enseigne au groupe une technique particulière puis ouvre l’étage aux expérimentations.

L’équipement mis à leur disposition des participants est vaste. Ils peuvent ainsi faire joujou avec des outils (scies, scies sauteuses, marteaux…), un sérigraphe pour les textiles, du matériel photographique, des plaques électriques et un évier, de la laine, du savon et du papier-bulle pour faire du feutre, un stock généreux de fécule, de vinaigre et de glycérine qui une fois mélangés avec de l’eau et chauffés font un bioplastique modelable et modulable.

Peu d’outils sont véritablement high-tech mis à part une imprimante 3D qui imprime en pressant de fines couches de certains matériaux et qui est capable de produire une forme en utilisant les données en trois dimensions que l’utilisateur lui donne. Une telle machine ressemble à un four : une fine couche de nylon est chauffée jusqu’à ce qu’elle s’amolisse puis est injectée dans un moule dans lequel elle se durcit à nouveau. Open Design City n’a pas de découpage laser ou d’autres outils similaires permettant de le qualifier pleinement de « fablab ».

La grosse partie de l’équipement provient des dons. « Un type a un jour acheté une tonne de briques Légo blanches en choisissant d’en offrir quelques uns à l’atelier » dit Fahle.

Fast Co Design

Fast Co Design

Apprendre à utiliser l’équipement est d’ordinaire la partie la plus difficile.

Doering se souvient d’un membre de l’ODC, une responsable de communication née en Iran qui travailait au betahaus. Elle voulait faire des énormes lettres en polystyrène expansé pour écrire des slogans lors d’un événement de soutien à la résistance iranienne (cf ci-dessous). Après avoir fait faire des devis « incroyablement cher » dans un atelier de prototypage traditionnel, elle est venue à l’ODC pensant qu’elle pourrait expliquer son projet et ensuite le laisser entre des mains plus expertes. Eh bien non. « Nous avons fait un marché : qu’elle nous aide à acheter une machine pour couper le polystyrène et on lui enseignera alors (à elle et à ses amis) comment l’utiliser » explique Doering. « Au début, elle ne cessa de répéter : Ce n’est pas possible ! Comment pourrai-je faire ça ? Mais une fois que nous avions passé 15 minutes ensemble, elle a vu comment c’est vraiment amusant et facile à faire. Elle et ses amis se sont totalement éclatés à faire ça. Ils ont passé une semaine à couper comme des dingues, monter une fausse prison en briques et inventer une méthode pour joindre les lettres. Tout ce dont il y avait besoin était ce petit coup de pouce de départ. »

Fast Co Design

Open Design City enourage une méthode parallèle de travail qui compose avec les égos et promeut le sens du jeu. Cousins explique : « Si je crois qu’un projet doit être réalisé d’une certaine manière et Chris a une idée différente, au lieu de nous disputer pour savoir laquelle est la meilleure, nous essayons les deux méthodes en même temps et partageons ce que nous apprenons au fur et à mesure. »

Est-ce que le talent ou l’expérience importe dans ce meilleur des mondes ? Oui et non.

Doering aime la façon dont les ateliers ouverts comme Open Design City remettent en question l’idée même de qualité (d’autant que c’est le sujet de sa thèse au Bauhaus). « La qualité doit toujours répondre à certains critères objectifs, bien sûr », explique-t-il, « la culture industrielle dit : voici un produit pour une certaine utilisation et qui a une certaine valeur. Mais les objets aiment à s’échapper des carcans. Il est totalement limitant de dire : c’est une lampe, son but est de remplir l’espace avec de la lumière. Parce que c’est aussi un cadeau de votre grand-mère, c’est une touche personnelle dans votre living-room, etc. et il faut conserver cette flexibilité-là. »

Il a pris une feuille de plastique d’amidon sur l’établi et il l’a brandie. « C’est un biopolymère. Ce n’est pas résistant à l’eau et je ne sais pas combien de temps cela peut tenir en état, un an, peut-être. Voilà au contraire ce qui se passe avec les plastiques à base de pétrole : ils durent éternellement et ce n’est pas une bonne façon de penser. Nous n’aimons pas nos produits aussi longtemps ».

La valorisation des déchets (NdT : upcycling), qui récupère de vieux produits pour les recombiner dans de nouveaux objets désirables, est au programme de futurs événements de l’ODC.

Fast Co Design

Tout cela résonne furieusement anti-industriel — et d’un certain côté c’est bien le cas.

Mais en tant que concepteur produit et pionnier du mouvement Open Design, Ronen Kadushin nous rappelle que renverser la structure du pouvoir dans l’entreprise n’est pas le but. « Vous connaissez le vieux proverbe romain à propos de la hache de votre grand-père ? » dit-il. « Mon père a changé son manche et j’ai changé la lame. Rien de ce que j’ai dans la main ne vient de mon grand-père, mais c’est toujours la sienne. C’est une tradition de valeur. Nous n’avons désormais plus d’objets qui remplissent ce besoin ; nous n’avons pas de hache. La meilleure façon de rester attaché à un produit ou un objet est de le faire soi-même. »

Vers quel avenir pourrait nous mener la fabrication libre de tels produits ?

Vers un Moyen Âge dopé au silicium, répondent Doering, Fahle et Cousins, dans lequel des artisans seraient connectés « localement » avec toute la planète grâce à internet. « Une telle perspective est un peu régressive, en fait » admet Cousins. « Elle nous ramène à l’ère du boulanger, du fabricant de meubles, du spécialiste en électronique, de votre homme à tout faire — un système distribué dans lequel nous reconnaissons mutuellement nos compétences, et les valorisons. Nous ne pouvons plus nous permettre de prendre un objet et de déclarer : « il est 100% éthique, personne n’a été blessé, aucune communauté n’a été décimée au cours de sa fabrication » parce que c’est trop complexe à gérer et non satisfaisant puisque nous demeurons passifs. Diffuser et partager la connaissance de la fabrication d’objets au sein de la communauté ODC nous apporte de la résilience tout en nous permettant de mieux nous débrouiller seuls ».

Fast Co Design

« Mais ce n’est pas seulement une question de survie », poursuit Cousins, « Nous luttons pour nous reconnecter à une communauté et une culture de la participation. C’est un lien très puissant qui s’est progressivement étiolé au cours de ces cent dernières années ». Le paradoxe n’est qu’apparent : les déchets de la révolution industrielle devenant le matériau brut pour des ateliers de type médiéval, un mouvement rendu possible par un Internet massivement collaboratif, une population lassée de vivre virtuellement, et des machines dont le prix s’est démocratisé grâce à une base de consommateurs désireuses d’acheter de nouveaux moyens de production. Ce qui est vieux redevient alors réellement nouveau.

Notes

[1] Crédit photos : Betahaus




Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),




Les enfants Montessori et le logiciel libre partagent de nombreux points commmuns

Brian Glanz - CC by-saNée dans un quartier pauvre de Rome il y a plus d’un siècle, l’originale pédagogie Montessori n’a jamais cessé d’essaimer et connaît même un fort regain d’intérêt à l’aube de ce nouveau millénaire qui nous demande une solide capacité d’adaptation aux changements.

Les fondateurs de Google ont été dans une école Montessori. Et le créateur du cèlèbre jeu SimCity en parle en ces termes : « Montessori m’a enseigné la joie de la découverte. Cela m’a montré que l’on pouvait s’intéresser à des théories complexes, comme celles de Pythagore par exemple, en jouant avec des cubes. Il s’agit d’apprendre pour soi-même plutôt que de recevoir l’enseignement du professeur. SimCity est directement issu de Montessori – si vous donnez aux gens ce modèle de construction des villes ils en tireront les principes de l’urbanisme ».

Michael Tiemann, figure du logiciel libre travaillant chez Red Hat mais aussi jeune papa, tente ici de rapprocher les deux domaines parce qu’il y voit de nombreux points communs. L’une de ses hypothèses est qu’un enfant qui aura suivi une méthode Montessori sera plus à même de comprendre, s’intéresser et s’impliquer dans le logiciel libre[1].

Par extension et extrapolation, sera-t-il plus à même de comprendre, s’intéresser et s’impliquer dans le monde d’aujourd’hui mais surtout de demain ?

Remarque personnelle : Je constate que de plus en plus de parents « bobos de gauche urbains » placent leurs enfants dans des écoles privées Montessori, pour l’épanouissement général de l’enfant mais aussi pour échapper à la carte scolaire et l’école publique du quartier.

Montessori et la voie de l’Open Source

Michael Tiemann – 12 août 2011 – OpenSource.com
(Traduction Framalang : ZeHiro et Mammig2)

Montessori and the open source way

J’ai lu avec grand plaisir l’article de Steve Denning « Montessori est-il à l’origine de Google et Amazon ? ». Son argumentaire est solide, il s’appuie sur de nombreux faits scientifiques, et il expose les résultats remarquables que l’on peut obtenir quand nous pouvons Faire confiance à l’enfant. Il écrit si bien et de façon si claire qu’il est inutile que je répète ses propos, vous pouvez (et devriez !) lire directement son article. Mais nous pouvons le compléter, en particulier en comprenant comment les principes et la philosophie de l’open source sont si proches de la méthode éducative de Montessori.

C’est en tant que parent, et assez tardivement, que j’ai découvert l’éducation Montessori. Au début, je ne connaissais strictement rien aux travaux de Montessori, mais l’école de ma fille prenait très au sérieux ses écrits et j’ai ainsi commencé à voir les liens profonds et étroits entre des activités scolaires en apparence simples. Après avoir lu La science derrière le génie, le schéma complet m’est apparu plus clairement, et depuis je suis devenu un fervent partisan de la méthode Montessori.

La thèse Faire confiance à l’enfant, développée par Montessori, repose sur l’idée d’accompagner le développement de l’individu. Montessori a montré que lorsque des enfants sont privés de la possibilité de faire leurs propres choix, alors leur personnalité ne se développe pas complètement, et ils peuvent dépendre beaucoup trop des autres pour prendre des décisions les concernant. Par analogie, l’open source permet à tous les participants, qu’ils soient utilisateurs, développeurs, distributeurs ou mainteneurs de devenir de vrais contributeurs. Cette opportunité encourage non seulement à améliorer le logiciel (dont la qualité peut être perçue comme 100 fois supérieure à celle des logiciels propriétaires), et le plus important est qu’il encourage également les individus à s’améliorer. C’est ce que j’ai pu constater en étant dans l’open source depuis plus de vingt ans et en tant que parent Montessori depuis dix ans.

“Faire confiance à l’enfant” ne se limite pas à observer ce que fera un enfant dans le cadre d’un programme éducatif imposé. Dans l’éducation Montessori, tout l’environnement est disponible pour étudier, et les enfants sont encouragés à passer du temps à l’extérieur, pour observer, inventorier, s’interroger, et chercher les connaissances nécessaires pour répondre à leurs questions. La démarche scientifique est modulaire et évolutive, c’est à dire que des résultats sont obtenus à partir de résultats qui proviennent eux-mêmes d’autres résultats.

Ces résutats scientifiques doivent être reproductibles ou bien ils ne sont pas scientifiquement acceptables. De façon similaire, la modularité naturelle des logiciels open source fait qu’ils deviennent eux-même une forme de science de la programmation. Les modules peuvent être aussi librement utilisés que les résultats scientifiques peuvent être librement reproduits. Et tout comme un grand scientifique essayera de rendre ses résultats aussi simples et accessibles que possible, il existe une forme de reconnaissance similaire pour ceux qui écrivent des logiciels qui sont le plus possible généralistes, portables, et techniquement transparents.

Une valeur primodiale de la méthode Montessori est que l’apprentissage devrait être l’affaire de toute une vie. Denning paraphrase ceci en disant que l’éducation n’est pas une destination mais un voyage. Denning observe également que ceux qui voient dans l’obtention de leurs diplômes universitaires le boût du chemin, se retrouvent dans une impasse en cas de changement. Pour ceux qui envisagent l’apprentissage comme un exercice de longue haleine, alors le changement est simplement une nouvelle opportunité d’apprendre. De la même façon, les logiciels open source ont tendance à avoir un avenir ouvert et en perpétuel développement. De nombreux logiciels et frameworks propriétaires s’élèvent puis chutent car ils sont conçus avec une idée d’achèvement. Au contraire, les logiciels open source sont constament re-écrits, re-inventés et leurs objectifs modifiés. En regardant l’évolution de Linux au court des vingt dernières années je me suis dit : a-t-il déjà existé un système d’exploitation qui ait autant évolué, aussi rapidement et soit allé aussi loin ? Voilà tout le génie d’une vision de l’apprentissage à long terme.

Un dernier point : Les enfants Montessori sont-ils enthousiastes à l’idée de mettre les mains dans le code source ? La réponse evidente vous fournira, s’il en était besoin, une ultime preuve des atomes crochus entre Montessori et l’open source.

Notes

[1] Crédit photo : Brian Glanz (Creative Commons By-Sa)




L’Open Data au service de l’humanitaire grâce à OpenStreetMap

HOT Logo - OpenStreetMapC’est un billet très HOT que nous vous proposons aujourd’hui. Mais HOT pour Humanitarian OpenStreetMap Team.

Le projet de cartographie libre OpenStreetMap vous connaissez déjà je suppose ? (sinon vous pouvez parcourir ce billet ou notre tag du même nom). Mais peut-être ignoriez-vous son projet spécifique dédié à l’humanitaire en cas d’urgence ?

C’est l’objet de cette interview traduction.

C’est pas pour dire, mais, un jour, tous ces projets positifs (et souvent d’inspiration libriste) vont finir par faire sens et nous sortir du marasme actuel…

Remarque : En fin d’article nous vous proposons de revoir un passage télé évoquant le projet et l’utilité d’OpenStreetMap en pleine crise d’Haïti.

L’Open Data au service du secours humanitaire grâce à l’équipe dédiée d’OpenStreetMap

Open data for humanitarian relief with the Humanitarian OpenStreetMap Team

Jason Hibbets – 18 juillet 2011 – OpenSource.com
(Traduction Framalang : Slystone, ZeHiro, Goofy, Padoup-padoup)


Il fait chaud (hot) en Haïti, en Indonésie, en Côte d’Ivoire, et dans d’autres pays autour du monde. Pourquoi ? Parce que Kate Chapman, l’équipe humanitaire OpenstreetMap (NdT : HOT pour Humanitarian OpenStreetMap Team), ainsi que beaucoup de bénévoles contribuent à améliorer les économies locales et à créer une carte libre et gratuite du monde.

À la rencontre SouthEast LinuxFest qui s’est tenue au début de l’année, j’ai appris l’existence du projet humanitaire OpenStreetMap à l’occasion d’une conférence donnée par Leslie Hawthorn sur les outils gratuits et libres destinés à l’action humanitaire.

HOT reprend les principes de l’open source et du partage libre de données pour l’aide humanitaire et le développement économique, en tirant parti des efforts de OpenstreetMap. Kate Chapman est directrice du projet. Son rôle est de mettre en place l’organisation mais aussi la contribution aux projets. Elle travaille pour lever des fonds, exécuter les tâches administratives, gérer le budget, et enfin aller sur le terrain pour y tenir des ateliers. Kate nous en a dit plus sur le projet HOT dans l’interview ci-dessous.

Quelle est la mission de l’équipe humanitaire OpenstreetMap ?

HOT croit que des données géographiques libres et à jour peuvent être indispensables pour réagir face à un désastre. Donc nous aidons des communautés et des intervenants d’urgence qui d’une part utilisent les données d’OpenStreetMap et d’autre part contribuent en même temps au projet.

Quel a été l’impact du projet humanitaire OpenStreetMap sur des régions atteintes par un désastre (par exemple en Haïti ou en Côte d’Ivoire) ?

HOT a joué un rôle actif en Haïti, que ce soit à distance ou sur place par l’intermédiaire de missions. La communauté du projet OpenStreetMap a commencé par rechercher des images satellite et collecter des données issues de vieilles cartes pour mettre à jour la carte d’Haïti après le tremblement de terre. Puis à partir de mars 2010, nos équipes ont commencé à se rendre en Haïti pour former directement les gens à la mise à jour d’OpenStreetMap et à son utilisation. Ainsi, la communauté OpenStreet Map d’Haïti (COSMHA) s’est développée et poursuit le travail de cartographie de la région avec le soutien de HOT quand cela est nécessaire.

En Côte d’Ivoire, notre travail s’est fait entièrement à distance. Un de nos membres, Frederic Bonifas, a fourni la plus grosse contribution à l’effort de coordination pour ce projet. SPOT (une entreprise française de satellites) a joué un rôle vital en mettant à disposition sous licence libre des images que des personnes ont pu utiliser pour compléter les données d’OpenStreetMap.

Cependant, HOT n’existe pas que pour les cas d’urgence. On a commencé des travaux d’anticipation en Indonésie cette année. Jeff Hack et moi-même passons en ce moment deux mois en Indonésie pour tenir des ateliers dans des communautés et des universités. Nous espèrons ainsi recueillir des informations détaillées sur les bâtiments et les utiliser pour mieux anticiper les scénarios catastrophes.

Quelles sont les technologies ou les autres défis qui se présentent à vous ?

Le problème des licences a été le plus gros défi pour HOT. Après un afflux d’images en provenance d’Haïti, les cartes d’OpenStreetMap ont pu être misees à jour sans problème. En cas de catastrophes, il est parfois difficile de réagir rapidement lorsqu’il n’y a pas d’images satellite ou d’autres types de de données disponibles qui peuvent être utilisées avec OpenStreetMap.

Est-ce que vous avez la possibilité de faire équipe pour travailler en collaboration avec les gouvernements des zones concernées ?

La réponse à cette question est : quelques fois. Que ce soit en Haïti ou en Indonésie, nous avons formé des personnes travaillant pour le gouvernement. Nous allons également bientôt commencer un programme au Togo pour anticiper les catastrophes, celui-ci impliquera directement le gouvernement togolais.

Détaillez-nous les étapes de l’assistance fournie par votre organisation en cas de désastre. Par exemple, si un ouragan devait arriver sur la côte, comment est-ce que vous aideriez ?

Chaque catastrophe est unique. Typiquement après une catastrophe on commence en premier à faire l’état des données disponibles. Cela veut dire se mettre en contact avec les fournisseurs d’images satellite, répondre aux agences, et faire des recherches sur internet en général. Puis d’habitude on essaye de trouver quelqu’un qui est capable de coordonner les efforts humanitaires. Après nombre de cataclysmes on a de nouveaux bénévoles, des individus variés qui sont intéressés par l’utilisation des données, d’autres qui ont besoin d’aide, ce qui importe c’est de s’assurer qu’ils obtiennent ce dont ils ont besoin.

OpenStreetMap en général est une organisation avec une communauté très impliquée, et son développement HOT conserve ce même caractère. Mais ici nous réagissons à des urgences, c’est pourquoi nous nous coordonnons pour être sûr qu’une personne à la tête peut diriger les efforts.

Rejoignez-nous

La manière la plus simple de participer à HOT c’est d’abord d’apprendre à éditer les données dans OpenStreetMap. Souvent, le meilleur moyen de le faire est de commencer à cartographier votre propre quartier. Ce n’est pas difficile de se familiariser avec les outils de base. Pour avoir une participation plus active à HOT, le mieux est de s’abonner aux listes de diffusion. C’est là que se passent les discussions entre les personnes qui font quelque chose pour aider sur tel ou tel événement ainsi que les annonces générales.

Bonus Track

Chronique d’Emmanuelle Talon (La Matinale de Canal+ – 18 janvier 2010) évoquant OpenStreetMap au moment du tremblement de terre d’Haïti de 2010.

—> La vidéo au format webm




J’ai eu envie un jour de changer le monde – Frédéric Couchet – TEDx Talk

On ne compte plus les interventions publiques de Frédéric Couchet en tant que délégué général de l’April.

Mais il est plus rare (et plus émouvant) qu’il nous parle de lui en nous narrant son parcours personnel et ce qui l’anime, à savoir avant tout une belle et utile aventure humaine.

C’était en mai dernier lors du premier TEDx de Bordeaux.

—> La vidéo au format webm




Bitcoin libérera-t-il la monnaie à l’échelle d’Internet ?

TraderTim - CC by-sa« Papa, tu faisais quoi quand les crédits Facebook sont devenus l’unique moyen de paiement sur internet ? »

C’est par cette phrase cinglante que s’achève le billet de notre ami Ploum, qui nous a fait l’honneur d’un article original sur le Framablog.

Le propos se divise en deux parties.

La première nous explique très clairement pourquoi nous avons urgemment besoin d’un système d’échange monétaire libre et décentralisé, à fortiori lorsqu’il s’agit de micropaiements ou de microdons.

La seconde est consacrée à Bitcoin (cf cette vidéo) qui semble potentiellement d’ores et déjà répondre au besoin mais qui n’est pas sans poser questions et problèmes[1].

Je ne sais si Bitcoin s’imposera, mais celui qui réussira lui ressemblera.

Et ce jour-là Papa sera fier d’annoncer à son rejeton qu’on pourra non seulement se passer des crédits Facebook mais qu’on n’aura plus à trembler servilement lorsque les bourses mondiales se mettent à tousser.

Décentralisation monétaire

Ploum – juillet 2011
Licence Creative Commons By-Sa

Quelle que soit votre motivation profonde, vous êtes beaucoup, parmi les lecteurs de Framasoft, à voir dans l’Internet un espace de liberté, d’expression, de communication, d’échanges, d’entraide et bien d’autres.

Afin que cette liberté soit garantie, il est nécessaire d’éviter à tout prix une centralisation qui mettrait le pouvoir absolu d’un service donné dans les mains d’une seule personne, entreprise ou gouvernement. En effet, un service décentralisé assure non seulement la pérennité du réseau mais permet également une indépendance d’un client par rapport à un fournisseur de service.

C’est pour cette raison qu’à Framasoft nous sommes de fervents défenseurs de l’email, que nous utilisons XMPP à la place de MSN, que nous préférons identi.ca à Twitter et que nous suivons avec impatience les progrès de Diaspora pour proposer une alternative à l’omniprésent Facebook.

Mais si l’entraide, la communication et l’échange sont de très belles choses, ils ne sont malheureusement pas entièrement suffisants et la majorité d’entre nous, Framasoft inclus, a encore terriblement besoin d’argent.

Alors que le troc est entièrement décentralisé, chacun troquant selon ses convenances, l’argent est un service totalement centralisé fourni par les états. D’ailleurs, ne parle-t’on pas de « banque centrale » ?

Ce système est, de plus, complètement opaque, les citoyens devant entièrement faire confiance à l’état central qui, lui-même, délègue une partie de ce pouvoir aux banques privées.

Le fait que ce soit un bien ou un mal reste sujet à interprétation. Néanmoins, en regard de la crise économique de 2008, il faut bien admettre que le résultat de l’actuelle politique économique centralisée est relativement mitigé. C’est d’ailleurs une des raisons pour laquelle certaines collectivités ont développé des systèmes d’échange locaux (SEL), en temps qu’alternative locale et auto-gérée à l’économie traditionelle.

Sur le réseau la situation n’est guère meilleure. Quelques acteurs centralisés comme Visa et Paypal monopolisent les transferts entre monnaie réelle et monnaie virtuelle. Cette situation d’oligopole leur est, bien entendu, fortement profitable : taxes à l’entrée d’argent dans le système, taxe à la sortie d’argent du système, commission sur chaque transaction. Sans compter que toutes vos dépenses, représentant une grande part de votre vie privée, sont fichées et archivées entre les mains d’entreprises pas toujours scrupuleuses.

Au final, il s’ensuit un véritable racket de l’internaute : afin que votre correspondant puisse recevoir 1€ au bout de la ligne, il n’est pas rare de devoir verser 1,20€, 1,50€ voire 1,80€, sous forme de frais fixes et de pourcentage sur la transaction. Ces frais, négligeables pour les grosses sommes, empêchent tout développement réel des petits transactions, des microdons, des micro-achats. Ces entreprises acquièrent également un pouvoir politique, s’octroyant le droit de « geler » ou de supprimer des comptes, comme ce fut le cas pour Wikileaks.

Le transfert de petites sommes est pourtant un moteur de notre économie. Si l’on hésite à acheter un album de musique à 14€, acheter une chanson à 1€ peut se faire sur un coup de tête. Les grandes entreprises ont donc développé des systèmes de « comptes » ou d’abonnements. Vous versez une somme importante en une fois que vous pourrez dépenser petit à petit. L’Apple Store ou les crédits Facebook fonctionnent sur ce principe. Mais outre le fait que ces systèmes sont centralisés, ils nécessitent d’immobiliser une grosse somme d’un seul coup et ne sont bien sûr pas interopérables. Une fois vos 25€ versés sur Facebook, ils sont irrécupérables et non-transférables en dehors des applications Facebook.

Quelques alternatives tentent également de proposer un modèle original, comme Flattr. Flattr offre en effet de déterminer une somme mensuelle fixe qui sera divisée par le nombre de dons faits chaque mois. Néanmoins, cela reste centralisé et avec des frais prohibitifs. Ainsi, Framasoft ne touche que 90% des dons faits via Flattr.

Une solution idéale serait de proposer un système d’échange monétaire libre et décentralisé. Un tel système existe et a un nom : Bitcoin.

Techniquement, le fonctionnement de Bitcoin est relativement complexe, se basant sur des algorithmes cryptographiques et le peer-to-peer. Le gros problème d’une monnaie virtuelle est d’éviter la « double dépense ». Par essence, une information virtuelle peut être répliquée à l’infini, problème qui tracasse l’industrie musicale depuis plusieurs années.

Bitcoin résout ce problème en utilisant le peer-to-peer. Lorsque Alice donne un bitcoin à Bob, elle rend la transaction publique. Les participants au réseau bitcoin (les « mineurs ») vérifient que la transaction est légitime en s’assurant que, dans leur historique des transactions, Alice est bien la dernière personne à avoir reçu ce bitcoin précis, chaque bitcoin étant unique. Les « mineurs » annoncent sur le réseau que la transaction est confirmée. Quand suffisamment de « mineurs » ont confirmé la transaction, Bob peut considérer que Alice ne pourra plus dépenser son bitcoin et qu’il en est donc le propriétaire. Si Alice tente de redépenser son bitcoin, les « mineurs » refuseront la transaction, arguant que, d’après l’historique, Bob est le légitime propriétaire du bitcoin.

Pour encourager les « mineurs » à faire ce travail de vérification, le réseau gratifie le premier mineur à vérifier chaque bloc de transactions d’un bonus. Ce bonus, qui est pour le moment de 50 bitcoins, décroît avec le temps et a pour conséquence de distribuer la monnaie graduellement à travers le réseau.

Le nombre de bitcoins ainsi générés étant une fonction décroissante, on a pu calculer que le nombre total de bitcoins ne dépasserait jamais 21 millions.

Intrinsèquement, le bitcoin n’a aucune valeur. C’est juste la preuve qu’un échange a été fait. Mais n’en est-il pas de même pour n’importe quelle monnaie ?

Afin de garantir l’anonymat, les transactions ne se font pas directement entre Alice et Bob mais entre deux adresses du type 1GTkuikUyygRtkCy5H6RMuTMGA1ypqLc1X, qui est la partie publique d’une clé de cryptage asymétrique. Bob donne à Alice son adresse et seul eux deux savent à qui appartient l’adresse. Le réseau ne possède aucun moyen de lier l’adresse réceptrice à Bob. Bob, de son côté, possède la partie privée de la clé, lui permettant de prouver qu’il est bien le destinataire de tous les bitcoins envoyés à cette adresse. Bob peut générer autant d’adresses qu’il le désire et l’usage est de générer une adresse par transaction.

La facilité d’échange et la rareté du bitcoin en font un candidat idéal pour une monnaie électronique décentralisée. Des sites de vente en ligne acceptant les bitcoins sont donc apparus sur le net. Beaucoup de personnes, tablant sur un succès futur des bitcoins, on décidé d’en acheter une certaine quantité, ce qui a fait monter le prix du bitcoin. Une véritable économie parallèle s’est développée, principalement basée sur la spéculation. La valeur du bitcoin est passée de 0,01€ en novembre 2010 à 25€ en mai 2011, avant de redescendre aux alentours de 10€ en juin 2011.

Si Richard Stallman n’a pas encore pris de position publique au sujet du bitcoin, le fait qu’il s’agisse d’un logiciel libre, décentralisé et permettant des paiements anonymes en fait la coqueluche de certains libristes. La Free Software Foundation elle-même accepte dorénavant les donc en bitcoins. Après moins de deux jours, plus de 270 bitcoins avaient été envoyés anonymement, l’équivalent de près de 700€ de dons à l’époque et 2700€ actuellement !

Mais tout n’est pas rose au pays des bitcoins et les critiques sont nombreuses.

Beaucoup s’étonnent notamment au fait d’attacher de la valeur à quelque chose qui n’en a pas. À ce sujet, le bitcoin ne diffère pas d’un bout de papier ou même d’un morceau de métal jaune brillant. La valeur attachée à un objet est en effet liée à la confiance que le possesseur a de pouvoir échanger cet objet. Mais entre accorder sa confiance à un gouvernement et l’accorder à un réseau P2P décentralisé, il y a un pas que beaucoup hésitent à franchir.

Le bitcoin est anonyme et permet de gros échanges d’argent sans aucun contrôle, tel la vente de drogue ou de services illicites. Les partisans du bitcoin répliquent que bitcoin n’est qu’un outil, comme l’est la monnaie papier. Beaucoup d’outils facilitent les activités illégales: Internet, la cryptographie, le réseau Tor. Il est d’ailleurs déjà possible d’acheter de la drogue en ligne en payant en bitcoins. Faut-il bannir ces outils pour autant ? Une chose est certaine: le bitcoin opère dans une zone encore floue de la légalité. Même les activités parfaitement licites sont confrontées à un problème de taille: comment déclarer des revenus en bitcoins ? Faut-il payer des impôts ? À ce titre, Bitcoin peut être considéré comme un gigantesque SEL à l’échelle d’Internet.

Nombreux, également, sont ceux qui pointent l’inégalité de Bitcoin. En effet, les premiers bitcoins étaient très faciles à générer. Les tous premiers entrants ont donc, sans effort, récolté des milliers de bitcoins. Est-ce que le fait d’avoir cru en bitcoin avant tout le monde est suffisant pour justifier leur nouvelle richesse ? Le bitcoin n’est-il pas une gigantesque pyramide de Ponzi ? De manière amusante, cette critique semble typiquement européenne. Dans un monde où la richesse est un signe de succès, les Américains ne semblent en effet pas y voir le moindre inconvénient, surtout dans la mesure où cet enrichissement entièrement virtuel ne s’est pas fait au détriment d’autres personnes.

Économiques, philosophiques, morales, techniques ou politiques, Bitcoin interpelle et soulève de nombreuses questions à propos du système dans lequel nous vivons, ne laissant personne indifférent. À tel point que certains se demandent si le prix actuel du bitcoin n’est pas entièrement artificiel et créé par l’enthousiasme des spéculateurs. Sa difficulté d’utilisation et l’apparent amateurisme des sites acceptant les bitcoins ne semblent pas plaider en faveur du bitcoin.

En Juin 2011, MtGox.com, le principal site d’échange de bitcoin contre des dollars, a été piraté et des opérations ont été réalisées de manière frauduleuse, plongeont l’économie du bitcoin dans l’incertitude pendant une semaine complète. La valeur du bitcoin n’en a que peu souffert mais, pour certains, l’évênement a été un signal d’alarme: le bitcoin est encore très expérimental et sa valeur peut tomber à zéro en quelques heures.

Mais, malgré tout, Paypal, les crédits Facebook et les pièces d’or de World of Warcraft nous ont démontré que la généralisation des monnaies virtuelles est une évolution inéluctable. Si elle n’est pas exempte de critiques, Bitcoin semble à ce jour la seule alternative libre et décentralisée utilisable.

Bitcoin disparaitra-t-il comme une bulle spéculative après quelques mois ? Transformera-t-il durablement la société ? J’avoue ne pas en avoir la moindre idée mais je sais que mon plus grand cauchemar est de me réveiller un matin avec une petite tête blonde me demandant auprès de mon lit: « Papa, tu faisais quoi quand les crédits Facebook sont devenus l’unique moyen de paiement sur internet ? »

Notes

[1] Crédit photo : TraderTim (Creative Commons By-Sa)