Ceci est une Révolution : ce que l’Open Source a changé

Patrice Bertrand - SmilePatrice Bertrand est directeur général de la SSII Smile spécialisée dans l’intégration de solutions open source ainsi que président du prochain Open Word Forum (dont Framasoft sera).

Il a tout récemment fait paraître un article dans le quotidien économique et financier La Tribune qu’il nous a semblé intéressant de reproduire ici (enrichi de quelques liens) avec son aimable autorisation.

C’est accessible et synthétique. On n’hésite pas à employer les grand mots.

Et, clin d’œil à nos plus fidèles lecteurs, on peut également y trouver là comme une sorte de réconciliation entre les frères ennemis « open source » et « logiciel libre » (enfin vous nous direz dans les commentaires).

Ceci est une Révolution : ce que l’Open Source a changé

Patrice Bertrand – 17 septembre 2012 – La Tribune

URL d’origine du document

Les 11, 12 et 13 octobre prochains se tiendra à Paris, l’Open World Forum, un événement de renommée internationale dédié à l’open source et aux approches ouvertes. L’open source est une idée qui a pris naissance dans le monde du logiciel, mais a inspiré et bousculé bien d’autres domaines. Tout comprendre en quelques clics sur une révolution qui bien au-delà de l’informatique, touche l’ensemble de la société…

Logiciel libre et open source

Revenons aux origines. Le logiciel libre est imaginé dans les années 80 par Richard Stallman. Il affirme que les programmes informatiques doivent pouvoir être librement utilisés, et surtout étudiés et modifiés. Utopique pour certains, il amorce pourtant une véritable révolution, qui 20 ans plus tard a bousculé toute l’économie du logiciel, et bien au delà. Fin des années 90, certains préfèrent l’appellation alternative de logiciel open source pour désigner à peu près la même chose, mais en mettant en avant non pas tant la liberté, que les qualités spécifiques de ces programmes réalisés de manière collective, peu centralisée, dont le code source (le programme tel qu’il est écrit par un informaticien) est disponible et peut être modifié, utilisé pour créer de nouveaux programmes, des oeuvres dérivées.

A certains égards, l’open source est un mouvement humaniste. Il considère que le logiciel est, à la manière de la connaissance scientifique, une forme de patrimoine de l’humanité, un bien commun que nous enrichissons collectivement, pour le bien être de tous.

L’open source, disons ici plutôt le logiciel libre, porte aussi un message particulièrement d’actualité: le logiciel nous contrôle, il est vital pour nous de contrôler le logiciel. Des pans de plus en plus grands de notre vie sont sous la maîtrise de logiciels. Un logiciel détermine si votre voiture va freiner, un autre si votre pacemaker va faire battre votre coeur, et un autre peut-être déterminera pour qui vous avez voulu voter aux présidentielles. Le logiciel fait désormais plus que nous rendre service, il nous contrôle. Ce n’est pas un mal en soi, à condition seulement que le contrôlions aussi, que nous sachions ce qu’il fait exactement, et ayons le droit de le modifier si besoin. Cette exigence première du logiciel libre est plus que jamais essentielle.

Ces 20 dernières années, le logiciel libre et open source, réuni sous l’appellation FLOSS, a apporté d’incroyables bouleversements.

Dans l’informatique, une révolution aux multiples facettes

D’abord dans la manière de créer des programmes. Dans les années 90, peu après la naissance du web, c’est une révélation : les programmes les plus critiques de la toile, les programmes les plus utilisés, les programmes les plus complexes, sont des programmes open source. Même Bill Gates en prend soudain conscience, et adresse en 1998 un mémo à ses troupes, où il s’alarme de cette transformation, de ces logiciels aussi bons et parfois meilleurs, de cette nouvelle forme de concurrence.

L’open source a apporté une rupture dans l’économie du logiciel en abaissant les coûts d’une manière incroyable. Tout ce qui constitue le socle d’une plateforme informatique, d’une plateforme web, est devenu tout simplement gratuit : système d’exploitation, bases de données, logiciels serveurs, outils de développement, outils d’administration. Bien sûr, le coût total de possession n’est jamais nul : il faut du matériel, du support et de l’expertise humaine pour déployer et faire marcher tout cela. Mais pour une start-up, la barrière à l’entrée a été abaissée de manière phénoménale, stimulant et accélérant la création d’entreprises innovantes. Et pour les entreprises utilisatrices, cette nouvelle donne s’est traduite en gains de compétitivité.

Comme toutes les révolutions technologiques depuis la machine à vapeur, l’open source a amené une forme de destruction créatrice, comme l’avait décrit l’économiste Joseph Schumpeter. En produisant des alternatives quasi-gratuites à des logiciels anciennement coûteux, l’open source a fait disparaître des acteurs devenus non compétitifs, et réduit les marges de quelques autres. Mais le contexte nouveau d’un socle logiciel devenu un bien commun a permis l’émergence de milliers d’acteurs, de startups innovantes, dont certaines sont déjà grandes. Et a permis, plus largement, l’émergence du web, de ses acteurs géants, et des milliers d’acteurs plus petits mais innovants et grandissants.

Le développement logiciel a été profondément modifié lui aussi. L’approche moderne du développement consiste à assembler des composants, grands et petits, pour l’essentiel open source. Une part déterminante du développement consiste donc à sélectionner les bons composants et les intégrer, en ne développant réellement que les parties spécifiques, qui concentrent la valeur ajoutée de l’application. C’est une transformation du développement logiciel qui a apporté d’importants gains de productivité.

L’open source domine sur les serveurs et dans le cloud

L’open source a eu des succès mitigés sur le poste de travail, sur le PC ordinaire. Et pourtant, moins visible et moins connue du public, la victoire de l’open source a été écrasante du côté serveurs et Cloud. Si Windows domine sur les postes de travail, le système d’exploitation Linux a une domination plus grande encore sur les millions de serveurs des grandes plateformes du web, de Google, Facebook, Amazon, ou eBay, mais des plus petits acteurs de la même manière. Une étude récente estimait à 90 % la part de marché de Linux sur le Cloud de Amazon. Dans beaucoup de domaines, l’open source est en pointe, faisant naître les outils de demain. Citons par exemple l’émergence du Big Data, la manipulation des données à une échelle nouvelle, où les outils de bases de données anciens atteignent leurs limites, et où des technologies nouvelles sont nécessaires. Ces nouvelles bases, dites NoSql, sont pratiquement toutes des logiciels open source.

Open Innovation

L’open source a apporté aussi une nouvelle approche de la R&D. Une belle illustration est donnée par le projet open source Genivi, qui a l’initiative de BMW et PSA a réuni des grands constructeurs automobiles et équipementiers dans une démarche typique de R&D mutualisée, construisant ensemble une plateforme logicielle destinée à leurs véhicules. Pour réussir ce projet stratégique, ces grands industriels ont adopté le modèle open source tant en termes de socle, de développement, de diffusion, que de gouvernance. Et l’on pourrait citer évidemment le noyau du système Linux lui-même, auquel contribuent des dizaines d’entreprise, en faisant sans doutes le plus bel exemple de R&D mutualisée, à l’échelle mondiale. Les démarches appelées parfois « open innovation » ont montré les bénéfices d’une innovation plus ouverte sur le monde, moins cachée, fonctionnant en réseau.

Open Art

Certains ont présenté l’open source comme antagoniste à la propriété intellectuelle. C’est tout le contraire, puisque l’open source se définit par ses licences d’utilisation, qui s’appuient elles-mêmes sur le droit d’auteur. L’auteur, titulaire des droits, donne à l’utilisateur des droits étendus, et quelques devoirs. Ce principe par lequel l’auteur d’une oeuvre reste parfaitement identifié, conserve ses droits, mais autorise différentes utilisations et la redistribution de son oeuvre a été étendue à de nombreux domaines, bien au delà du logiciel.

L’open source se décline dans l’art également. Les licences Creative Commons ont permis de diffuser des oeuvres de toutes natures en donnant des droits étendus, en particulier une libre rediffusion, avec ou sans le droit de modifier l’oeuvre originale. Ainsi, la fondation Blender, qui développe l’un des meilleurs programmes d’animation 3D du monde, un programme open source, réalise des open movies, des films d’animation dont tous les fichiers source, qui permettent de générer le film, sont rendus disponibles et peuvent être modifiés. Comme un roman dont on pourrait réécrire la fin.

Open hardware

L’open source a gagné le matériel également, sous l’appellation de « open hardware ». Il s’agit ici de partager les plans de circuits et d’équipements entiers. Un bel exemple d’open hardware, le projet Arduino est un microcontrôleur programmable totalement open source, matériel et logiciel, qui peut être adapté pour toutes formes de traitement du signal, ou de contrôle de process. Il peut être programmé pour réagir aux signaux de capteurs externes, les traiter, et commander des actions. Depuis 2005 il s’enrichit d’année en année, et plus de 300 000 unités ont été fabriquées. La diffusion de l’open hardware est encore modeste, mais souvenons-nous que c’était le cas aussi de l’open source logiciel à ses débuts : un « truc de geek ». Mais ces trucs de geeks font tourner les plateformes du web aujourd’hui.

Le mot clé derrière ces projets, ces démarches, est celui de réappropriation de la technologie. La technologie n’est pas le domaine réservé d’une élite minuscule, du fond de la Silicon Valley. Nous pouvons la maîtriser, et particulièrement si nous réunissons nos forces. C’est le principe des FabLabs. Nous ne sommes pas que des consommateurs idiots qui s’endettent pour acheter le dernier smartphone, dont on n’aura pas le droit même de changer la batterie. Avec quelques amis, avec un peu d’aide, avec des plans et des logiciels open source, nous pouvons construire des choses extraordinaires, dans notre garage. Pas tout à fait le dernier smartphone, mais pas très loin. Les imprimantes 3D ouvrent de nouvelles frontières pour ces démarches. Après avoir pris le contrôle des logiciels, il sera possible de reprendre le contrôle sur le matériel. On rêve déjà de pouvoir télécharger, sous licence libre, les plans d’une pièce de rechange pour sa cafetière, d’imprimer chez soi sa pièce en 3D. Et un peu plus tard, d’imprimer la cafetière open source elle-même ! Utopique ?

Mais justement, c’est la plus grande révolution de l’open source, de montrer que l’utopie gagne, parfois.

Open médecine ?

Les systèmes open source ne sont pas que pour les bricoleurs du dimanche. Ils gagnent par exemple la recherche en médecine. Merveilleux exemple de matériel et de logiciel open source associé à une démarche de recherche : des chercheurs ont développé Raven, un robot chirurgien open source, mis à disposition des équipes de recherche du monde entier afin de faire progresser les logiciels et technologies de chirurgie assistée. D’autres chercheurs travaillent à une machine combinant scanneur et radiothérapie, dont les plans, le code source, et les instructions de fabrication seront open source. Il est intéressant de remarquer que certains de ces projets de médecine open source ont reçu le soutien de la FDA, qui est un peu l’équivalent de l’AFSSAPS, avec l’espoir en particulier que le logiciel open source améliore la qualité, jugée insuffisante, des équipements propriétaires.

Fédérer les énergies citoyennes

L’open source a montré aussi que l’on pouvait fédérer et organiser les efforts d’un grand nombre de personnes sur un projet commun. Il était précurseur de ce qu’on a appelé plus tard le crowdsourcing, ces projets qui impliquent un grand nombre de contributeurs bénévoles, dont la réussite emblématique est celle de Wikipedia, mais qui a aussi donné OpenStreetMap. Avec un double crédo : d’une part la connaissance est un bien commun qui doit être accessible à tous sans barrière économique, d’autre part les citoyens peuvent gérer eux-mêmes ce patrimoine, dans le cadre d’une organisation décentralisée, et d’une gouvernanceouverte.

Parmi les déclinaisons de l’open source, on peut citer aussi le mouvement de l’open data, la mise à disposition des données publiques, mais aussi des données de certaines entreprises. Une démarche citoyenne et démocratique d’une part, mais aussi le socle de nombreuses initiatives et modèles économiques nouveaux appuyés sur ces données.

L’open source a fédéré des combats citoyens fondamentaux. Les militants de l’open source ont une force particulière : ils réfléchissent aux tendances sociétales, mais sont aussi au coeur des technologies nouvelles et parfois de leurs rouages économiques. Ils ont compris par exemple l’importance de standards réellement ouverts, dont la spécification soit librement accessible, dont la gouvernance soit ouverte, dont l’utilisation soit gratuite. Ils se battent pour la neutralité du Net, ce principe fondateur de non-discrimination des flux sur le réseau mondial, qui a permis l’émergence de toute une industrie du web et qui est menacée aujourd’hui. Ils tentent d’expliquer aux politiques pourquoi les brevets ne sont pas applicables au monde du logiciel, où la seule protection du copyright est amplement suffisante. Dans le monde du logiciel, les brevets sont contre-productifs, ils découragent l’innovation, ils sont l’arme d’un oligopole de géants et d’entités mafieuses appelées patent trolls. Pour les premiers il s’agit d’effrayer les petits concurrents plus innovants. Pour les seconds, d’extorquer une rente sur l’innovation des autres.

Une industrie florissante

L’open source n’est pas à l’écart de l’économie, au contraire. Les développeurs qui construisent les programmes open source ne sont pas toujours des bénévoles : la plupart sont payés par des entreprises qui voient un intérêt bien analysé dans leurs participations à ces travaux : elles bénéficient de logiciels performants dont elles n’ont eu à financer qu’une fraction de la R&D, elles ont une parfaite maîtrise de ces technologies qui deviennent des standards, elles ont un rôle dans la gouvernance de ces projets.

En France, l’économie du logiciel libre représente plus de 300 PME et ETI, éditeurs de logiciels ou sociétés de services, dédiées au logiciel libre. Elles sont souvent réunies en associations régionales, elles-mêmes fédérées au sein du CNLL, le Conseil National du Logiciel Libre. Elles représentent ensemble plus de 3000 salariés, et connaissent une croissance annuelle de près de 30 %. Si on comptabilise également les emplois liés au logiciel libre dans les sociétés de services généralistes, l’industrie (notamment aéronautique) et les télécommunications, le chiffre d’affaires global lié à l’open source est estimé à 2.5 milliards d’euros, soit 6% du marché des logiciels et des services informatiques, et plus de 30.000 emplois, en croissance annuelle de 30%. Source : Pierre Audoin Consultants.

On le voit, les déclinaisons de l’open source sont nombreuses, les impacts de l’open source vont bien au-delà du logiciel, des nouvelles technologies, ils s’étendent à d’autres industries, à l’ensemble de la société, à nos conceptions de la citoyenneté, de la démocratie. Toutes ces facettes de l’open source, à l’articulation de la technologie et du sociétal, sont représentées à l’Open World Forum. Ceci est une révolution, comme le dit une célèbre marque technologique…




Rebootons la civilisation avec Marcin Jakubowski d’Open Source Ecology

Marcin Jakubowski est le fondateur d’Open Source Ecology (évoqué la première fois ici sur notre blog)

C’est l’un des projets les plus enthousiasmants qui soit : disposer d’un kit de machines pour bâtir en toute autonomie les bases d’un village, d’une communauté ou d’une… civilisation ! Et là où tout ceci devient passionnant c’est que ces machines sont libres, permettant à tout un chacun de reprendre les plans pour s’en aller poser la première pierre de sa propre future communauté.

Si vous ne connaissez pas bien, nous vous suggérons de commencer par cette conférence TED de Marcin sous-titrée en français. Et pour aller plus loin, nous vous proposons ci-dessous la traduction d’un récent entretien donné par Marcin Jakubowski au blog du site TED.

Remarque : il y a également ces autres très instructives vidéos qui donnent plus de détails sur les différentes machines.

Marcin Jakubowksi - TED

Le rédémarrage de la civilisation – Entretien avec Marcin Jakubowski

Civilization reboot: Fellows Friday with Marcin Jakubowski

Karen Eng – 27 juillet 2012 – TED’s Blog
(Traduction : boubou, kamui57, steeve bois, xtof, maxlath, Lou, Slystone, KarmaSama, lorenzo11)

Le fondateur du mouvement Open Source Ecology, Marcin Jakubowski, est en train de jeter les bases libres d’une future civilisation, en commençant avec le Kit de Construction du Village Mondial (Global Village Construction Set). Ce kit de 50 machines à bas coût permettra à quiconque de bâtir toute l’infrastructure dont une communauté a besoin (Factor e Farm).

Le Kit de Construction du Village Mondial est une idée extrêmement ambitieuse. Quelle a été votre approche ?

Depuis mon enfance je suis passionné par la technologie. Mon père est un scientifique et ma mère est une enseignante, et très tôt j’ai pressenti que la science était une invention humaine incroyable qui pouvait nous permettre de rendre la vie meilleure. C’est ce qui explique pourquoi j’ai toujours voulu faire quelque chose d’extraordinaire avec la technologie.

Mais plus j’ai progressé dans le système éducatif, moins je me suis senti utile. Pendant ma deuxième année de préparation à mon doctorat sur l’énergie de fusion nucléaire, je ne me suis plus senti en phase avec le travail que je faisais : je pensais toujours que la fusion nucléaire était l’une des solutions aux problèmes énergétiques humains, mais plus je m’y intéressais, plus je réalisais que ce n’était pas la réponse. Cette technologie a beaucoup de problèmes, dont la radioactivité et le fait qu’il s’agisse d’une autre technologie de centralisation. Je sentais que cela ne contribuerait pas à une solution honnête pour une base technologique saine pour les Hommes. Donc j’ai commencé à réfléchir. « Et bien, alors, qu’est-ce qu’une base technologique saine ? Et comment peut-on se développer avec les technologies extraordinaires que nous possédons actuellement ? »

C’est comme cela que le Kit de Construction du Village Mondial a commencé. Et si on recommençait à partir de zéro ? Est-ce que l’on peut créer des communautés qui soient vraiment des témoins du développement humain et qui ne finissent pas empêtrées dans des problèmes géopolitiques et de mauvais compromis que l’on connaît dans les sociétés d’aujourd’hui ?

Comment et pourquoi avez-vous décidé de rendre le projet open source ?

Pendant que je travaillais sur mon doctorat, j’ai remarqué que je ne pouvais pas parler librement à d’autres groupes car nous avions des éléments sensibles et confidentiels. Donc je me suis dit : « Bigre ! Je suis à l’université et je ne peux pas travailler en collaboration de manière transparente ! » J’ai senti que ces limites étaient simplement un frein pour ma capacité à apprendre – quelle opportunité manquée ! Le concept d’Ecologie Open Source est issu de la tentative de répondre à la simple question suivante : « Qu’est-ce qui se passe lorsque l’on décide de travailler véritablement ensemble avec les autres ? » Ce principe s’applique à tous les secteurs de la société, de l’économie, à tout le reste. Pour le moment, la plupart des personnes ne travaillent pas ensemble. Chaque entreprise a son propre service d’ingénierie propriétaire. Il y a beaucoup de personnes qui réinventent la roue. Je pense que si on collaborait simplement, on pourrait accélérer le progrès par un facteur dix ou cent.

C’est cela l’essence de l’open source : nous essayons de bâtir sur ce qui existe déjà, et après on contribue en retour et on laisse tout le monde en profiter, en opposition au profit de quelques-uns seulement. C’est donc un changement complet d’état d’esprit, on passe d’un jeu à somme nulle à une société de post-pénurie.

Quelles sont les machines produites et envisagées, et pourquoi sont-elles les éléments clés d’une civilisation ?

L’ensemble de machines que je conçois englobe l’agriculture, l’énergie, les transports, la production… En gros tous les éléments d’infrastructure humaine sur lesquels on se repose pour fournir un standard de vie moderne. Est-ce que vous mangez ? Oui vous mangez. Donc vous avez besoin d’équipements agricoles pour nourrir les gens de manière optimale, depuis le tracteur jusqu’au four à pain. De quels outils pourriez-vous avoir besoin ? Une machine pour faire des circuits, des robots industriels, des équipements pour les énergies renouvelables, des machines pour construire, des machines pour fabriquer. Pour les transports, une voiture qui consomme 2 litres au 100 et qui fonctionne grâce à de l’énergie renouvelable avec un moteur moderne à vapeur, de la biomasse en granules pour le carburant. Les algues pourraient potentiellement marcher aussi. Pour l’énergie renouvelable, nous travaillons sur un concentrateur solaire à plusieurs miroirs, mais sur une échelle de 5 à 50 kilowatts. Ils sont réglables et modulables, donc nous pouvons en fabriquer plusieurs pour produire beaucoup d’énergie.

Toutes nos conceptions sont modulables. Par exemple, vous pouvez enlever les roues d’un tracteur en actionnant un levier, en retirant un boulon, pour l’utiliser sur une autre machine comme un mini tracteur ou un bulldozer, en maximisant la flexibilité de l’ensemble.

Avec la fabrication assistée par ordinateur comme les table de découpe contrôlées par ordinateur, les machines de précisions, les perceuses de circuits et les imprimantes 3D, les produits peuvent être conçus comme des Legos. Nous nous concentrons sur des designs modulaires, à assembler ensemble. En principe, c’est ce que nous visons. Une fois que nous auront optimisé la conception, je dirais qu’en un mois et avec, disons, quatre personnes, vous pourrez tout produire en utilisant des machines de fabrication avancée : tracteurs, voitures, bulldozers, pelleteuse, moissonneuse-batteuses, bétonnières, machines des puits de forages – à peu près 30 appareils mécaniques différents, en un mois, avec une production hyper-efficace. Nous insistons sur le fait que nous n’en sommes pas encore là – mais les témoignages que nous avons recueuillis jusqu’à maintenant indiquent la réalité future d’une production efficiente, distribuée et open source.

Où trouvez-vous les matières premières pour toutes ces machines ?

Pour le moment, nous achetons les matériaux en magasin. Mais dans le Kit de Construction il y a un four à induction et les procédures de roulage à chaud du métal. Donc vous pouvez prendre de l’acier de récupération, le fondre et en sortir de l’acier neuf. Ce qui fait que chaque décharge de métal est par essence un endroit où l’on peut reconstruire une civilisation.

Wow ! C’est en gros un kit pour l’Apocalypse.

C’est ce que disent certaines personnes. Je le vois plutôt comme un moyen de faciliter la mise en production. Je voudrais qu’on l’utilise pour construire une véritable communauté. C’est pourquoi la Factor e Farm existe. Nous avons 12 hectares dans le Missouri, et nous avons réuni une équipe solide où nous avons simultanément développé et utilisé des outils pour construire une communauté. À l’heure actuelle nous avons 14 personnes vivant à la ferme. D’ici à la fin de l’année nous voulons pousser ce groupe à 24. Le challenge étant de trouver les bonnes personnes.

Vous avez aussi besoin d’autres ressources pour commencer, comme des graines.

Oui, nous avons besoin de quelques graines. Si vous voulez une agriculture pérenne, vous devez générer tout votre stock génétique et le propager en utilisant une nurserie. Si vous avez besoin de verre, vous avez du sable. Si vous avez du sable, vous avez de la silice, ce qu’est l’âge digital. Si vous avez de l’argile, vous avez des aluminosilicates, ou aluminium, ce qui est une part de la civilisation moderne, les métaux. Pour le moment, l’extracteur d’aluminium est l’un des outils les plus avancé du kit.

Est-ce que la Factor e Farm vise l’auto-suffisance ?

C’est l’autonomie. Nous la cherchons comme but de notre entreprise sociale. Nous créons des outils qui permettent aux gens de produire à peu près n’importe quoi. Pour le moment, nous développons les outils, mais notre but ultime est de former les gens à être des entrepreneurs sociaux qui soient capables de tout créer, d’un Fab Lab open source à une ferme bio en passant par un centre de recherche.

Combien de machines avez-vous déjà finies ?

Nous avons sorti quatre machines en version bêta – un tracteur, une presse à brique, un pulvérisateur agricole et une pompe hydraulique. Le tout cumulé, nous avons un peu moins de 15 prototypes dont la fraiseuse commandée par ordinateur, la torche de découpe commandée par ordinateur, le mini-tracteur, la bétonnière, le tour en 3 dimensions, le marteau-pilon, l’échangeur de chaleur. Nous travaillons actuellement sur une machine à vapeur moderne.

Toutes nos machines sont open source (tout le monde peut télécharger les plans et les budgets). Mais nous vendons aussi nos machines prêtes à l’emloi. Nous travaillons à l’optimisation de la production avec l’objectif de vendre des presses à briques en terre et engranger 20 000$ par mois, ce qui nous permettrait de financer notre projet. Nous rationalisons la production de telle sorte que 8 personnes puissent produire une presse en un jour de travail collaboratif. Cela nous coûte 4 000$ de matériaux et nous vendons les presses 9 000$, soit une marge de presque 5000$ par machine. Nous prévoyons de lancer 4 cycles de production par mois, et le reste du temps nous le passons à developper le Kit et la communauté. Les gens n’arrêtent pas de me contacter pour obtenir des presses, nous avons un marché. La plupart du temps je suis obligé de leur dire « Hey, téléchargez les plans, récupérez votre chaîne de production, nous sommes débordés pour le moment ! ».

Qu’en est-il de la communauté de la Factor e Farm ?

Nous cherchons de gens qui souhaitent nous rejoindre. Notre but est d’arriver à 24 membres avant la fin 2013. Nous avons maintenant un responsable agricole sur site, nous commençons à pouvoir produire de notre sol toute notre nourriture. Nous visons à construire des habitations en blocs compressés (de 28 m²) en une semaine, presse et pose comprises. Nous venons de construire une unité de vie pour 10 personnes de 370 m² (double mur de brique séparés par une isolation à la paille). Nous ne sommes pas raccordés mais nous avons des toilettes à chasse d’eau et l’électricité. Nous avons aussi des toilettes à compost, soit différentes options pour différentes personnes.

Il y a un léger manque de parité. Nous avons une seule femme sur le site ! Nous encourageons donc les femmes à nous rejoindre. Et nous construisons la communauté. Et c’est là où nous en sommes pour le moment. Plus tard, nous déciderons d’une stratégie et d’un business plan, parce qu’il existe de nombreuses directions où l’on pourrait aller.

Quel type de personnes cherchez-vous ?

Nous cherchons des personnes qui sont par nature motivées, qui veulent lancer des opérations similaires et qui soient partie prenante du projet. La personne qui dirige la ferme voudrait à terme devenir agricultrice, et elle apprend en ce moment les techniques et l’utilisation des outils nécessaires. Notre directeur de production veut installer un nouveau centre une fois que le premier sera opérationnel. Nous cherchons donc des personnes qui soient réellement prêtes à utiliser les outils par eux-mêmes. Nous rémunérons les participants en fournissant un accès aux connaissances et aux technologies qui nécessiterait sinon d’être payé. C’est le modèle de ceux qui font de l’investissement personnel un mode de vie, avec des gens qui sont vraiment intéressés, qui ont donc la motivation et la bonne volonté de travailler dur pour faire de ce but une réalité. Nous pouvons aussi rémunérer directement les personnes pour le talent qu’ils ont et que nous ne pourrions pas obtenir autrement.

Psychologiquement parlant, c’est une expérience intéressante.

C’est la partie la plus intéressante. Ceci est, en fait, en train de devenir le plus gros challenge. La technologie est simple. Cela n’a pas une âme en soi. Mais avec les autres, nous remarquons que lorsque nous avançons dans l’expérience, nous devons aussi former les participants à une bonne santé psychique et mentale. Vous devenez une personne plus mature. Votre esprit doit évoluer d’un jeu à somme nulle vers l’après-rareté. C’est vraiment un développement personnel. C’est énorme, c’est tout simplement arriver à l’évolution d’une personne en tant qu’être humain.

Je pense beaucoup en termes d’équilibre de vie et en particulier d’équilibre travail/détente. Pourquoi les gens ne travaillent pas vraiment ou ne font pas de leur vie leur passion et leur travail ? Nous, ce que nous faisons, c’est notre passion. Ce niveau d’équilibre est le réel bénéfice de l’opération. C’est presque philosophique, et cela se vérifie très bien sur moi. Je vis cela en ce moment et je poursuis ma passion. Et j’ai environnement à bas-prix qui rend cela possible de façon responsable.

Jusqu’à quel point pouvez-vous allez ? En regardant plus loin dans le temps vous allez avoir besoin d’un système de santé, d’éducation…

Absolument. Pour le moment nous commençons simplement avec des infrastructures simples. Viendra ensuite l’éducation, la santé, un système financier, une gouvernance. Le matériel médical sera probablement le plus dur à obtenir. Viendront ensuite des choses comme la fabrication de semi-conduteurs. Notre but est de montrer qu’avec 12 hectares et 30 personnes, on peut créer ou recréer un standard de vie moderne saine, jusqu’à avoir des semi-conducteurs et du métal, le tout à partir des ressources du site. Jusqu’où un petit groupe de gens peuvent aller pour créer ensemble une référence de prospérité.

Comment la communauté TED a changé votre manière de travailler ?

Avant le TED 2011, nous disposions d’un budget mensuel de dons de près de 1 500 $. Du coup je suis assez vite arrivé à court d’argent. Depuis que nous avons rejoint la communauté, nous avons eu près d’un million de visites sur le site de la vidéo de ma conférence TED et 500 000 $ de financement. Tout cet argent et la plupart de l’équipe sur site est arrivé essentiellement après avoir vu cette conférence.

Donc en gros, depuis 2011, on a explosé et on essaye en ce moment même de gérer ces problèmes de croissance. C’est assez génial ce qui se passe en fait actuellement !

Comment les gens accueillent-ils l’idée ?

Il y a essentiellement deux camps. Les uns disent « Waou, l’idée va se répandre partout et cela vaut le coup de la soutenir ». Beaucoup sont intéressés par le principe.

Puis il y a ceux qui disent, « Si vous êtes open source, vous ne pourrez pas passer à grande échelle. Quel est votre business model ? Comment allez-vous vous développer et diffuser ? » Et c’est une question difficile. Pour moi la réponse est claire, il faut que nous reproduisions des objets très courants que tout le monde utilise. Si nous pouvons les produire à un coût plus bas – disons 5 à 10 fois moins cher – alors nous pouvons être dans le coup. Nous sommes en train d’optimiser le design de nos produits vers la simplicité, la durée de vie, la modularité, l’interchangeabilité des pièces. Nous essayons d’apprivoiser la technologie. Je pense que c’est une base solide.

Et alors les gens disent, « Bon, et comment vous générez votre revenu ?  » Nous cherchons à montrer qu’une installation de 400 m², une installation flexible et informatisée qui fait partie de notre boîte à outils – peut générer 80 000 $ par mois. Notre but est de faire la démonstration d’une production rentable et efficace, qui servira à amorcer notre trésorerie puis enseigner aux autres comment devenir une entreprise. Donc c’est un modèle entre production et formation que nous répliquerons en partageant les connaissances acquises avec d’autres personnes. Ils pourront alors soit commencer une installation du même type, soit mettre en place un centre de recherche, ou n’importe quelle sorte d’installation agricole. Ces outils peuvent avoir des usages allant de la reconstruction de villages, au lancement d’écoles, de fermes bio, d’unités de production, toutes sortes de choses. Il y a donc un grand potentiel en nous positionnant en tant que pépinière distributive de telles entreprises. Nous apporterons simplement des produits efficaces, bon marché et qui donnent envie partout dans le monde.

Cela passe à côté de l’objectif, non ? Parce que le but n’est pas de générer des revenus massifs, le but est de créer un monde auto-suffisant. Le but est de pouvoir vivre comme on le souhaite.

Absolument, c’est exactement ça. Une de nos critiques économiques courantes est que le marché devient efficace avant de faire faillite. Nous pouvons profiter de notre avantage concurrentiel seulement pour un laps de temps court pour un projet open source, avant que d’autres n’entrent dans la compétition et ne fassent baisser les prix. Mais c’est en fait un indicateur de notre succès : les gens adoptent une production à faible coût, distribuée de telle sorte que le monde en général atteint un état de post-pénurie matérielle (un stade dans lequel la pénurie matérielle devient impossible).

Alors, comment survivre à long terme ? En tant que pionniers, nous jouissons d’une primauté économique et d’un capital social initial – jusqu’à ce que nous soyons en mesure de financer un développement futur. Nous passons ensuite au développement de nouvelles machines. Notre modèle est effectivement fragile parce que nous sommes open source. Mais si c’est effectivement le cas (et si nous réussissons à faire cela pour un ensemble d’outils qui peuvent engendrer une économie complète) alors nous avons effectivement réussi à inventer un modèle évolutif pour créer des communautés économiquement autonomes. Pour moi, cela implique un monde meilleur où la pénurie matérielle ne serait plus une force motrice sous-jacente de la plupart des dynamiques de la civilisation. Ainsi, les gens pourront poursuivre de plus grands objectifs, une intégration entre la vie et le travail, et un standard de vie moderne qui ne nous ramène pas à l’âge de pierre.

Personnellement, je pense que c’est possible avec une infrastructure technologique vraiment appropriée à la civilisation. Nous pouvons créer un standard de vie moderne avec moins de deux heures de travail par jour, en utilisant d’abondantes ressources locales. Après cela, que faisons-nous de notre temps libre ? Nous nous concentrons sur des choses qui sont vraiment importantes pour nous. Cela nécessite un retournement complet de la façon de penser. J’ai l’espoir que nous allons évoluer à ce niveau en tant qu’être humain en moins d’une génération.




La troisième révolution industrielle est en marche et nous pouvons tous y participer

La « troisième révolution industrielle » est une expression popularisée par un récent essai de Jeremy Rifkin. Mais s’il se penche attentivement sur la question de l’énergie, qu’il envisage durable et distribuée, il se montre moins prolixe sur la question de la production.

Or là aussi de profonds bouleversements nous attendent…

Je casse une assiette aujourd’hui. Je prends ma voiture pour aller chez Ikea en acheter une autre (construit en Chine). Je casse une assiette demain. Je vais chercher sur Internet le fichier numérique « assiette », puis je demande à mon imprimante 3D de m’en créer une nouvelle sous mes yeux ébahis.

Et là où ça devient encore plus intéressant c’est quand l’imprimante tout comme le fichier sont libres, m’assurant alors que j’aurais une grande variétés de fichiers « assiette » à télécharger et que je pourrais même les modifier à ma guise avant de les imprimer 🙂

Pasukaru76 - CC by

La Troisième Révolution industrielle

The third industrial revolution

The Economist – Avril 2012
(Traduction : Louson, Lolo le 13, angezanetti, Fe-lor, GPif, xaccrocheur, @poulpita, fck, Coyau)

La numérisation de la fabrication modifiera la manière de fabriquer les biens ainsi que la notion même de travail.

La première révolution industrielle commença à la fin du XVIIIe siècle, avec la mécanisation de l’industrie du textile. Les tâches qui avant étaient exécutées laborieusement à la main par des centaines de petites industries de tisserand ont été réunies en une seule fabrique, et l’usine était née. la seconde révolution industrielle arriva au début du XXe siècle quand Henry Ford maîtrisa l’évolution des lignes d’assemblage et conduit à l’âge de la production de masse. Les deux premières révolutions rendirent les gens plus riches et plus urbains. Maintenant une troisième révolution est en cours. La fabrication devient numérique. Elle risque pas de ne changer que les affaires, mais bien plus de choses encore.

De nombreuses technologies innovantes convergent : logiciels, nouveaux matériaux, robots plus habiles, nouveaux procédés (en particulier l’impression 3D) et une large variété de services web. L’usine du passé reposait sur la production en masse de produits identiques : Ford disait que les acheteurs de voiture pouvaient avoir la couleur qu’ils voulaient, tant que c’était noir. Mais le coût de production de lots plus petits, d’une plus grande variété, où chaque produit est fait précisément sur mesure selon le vœu de chaque client, est en train de chuter. L’usine du futur se concentrera sur la personnalisation de masse et ressemblera bien davantage à de toutes petites industries qu’à la ligne de montage de Ford.

Vers une troisième dimension

Autrefois, pour faire des choses, on vissait et on soudait. Maintenant un produit peut être conçu sur un ordinateur et « imprimé » sur une imprimante 3D, qui crée un objet en volume en accumulant des couches successives de matière. La conception numérique peut être ajustée en quelques coups de souris. L’imprimante 3D peut fonctionner sans surveillance et peut faire des objets trop complexes pour être produits dans une usine traditionnelle. Un jour, ces machines étonnantes pourront faire presque tout, partout, dans votre garage ou dans un village en Afrique.

Les applications d’impression 3D sont particulièrement époustouflantes. Déjà, les prothèses auditives, et les parties haute technologie des avions militaires sont imprimées avec des formes adaptées. Un ingénieur travaillant au milieu du désert, à qui il manquerait un certain outil n’a plus besoin de se le faire livrer dans la ville la plus proche. Il peut simplement télécharger le design et l’imprimer. Les jours où les projets sont arrêtés pour cause de pièce manquante, ou encore, lorsque les clients se plaignent de ne plus pouvoir trouver les pièces de rechange de ce qu’ils avaient achetés, seront bientôt de lointains souvenirs.

Les autres changements sont presque aussi capitaux. Les nouveaux matériaux sont plus légers, plus résistants et ont une durée de vie plus longue que les anciens. Les fibres de carbone remplacent l’acier et l’aluminium pour des produits allant du VTT aux avions de ligne. Les nouvelles techniques permettent aux ingénieurs de réduire la taille des objets. Les nanotechnologies donnent de nouvelles fonctions aux produits comme les bandages qui guérissent les coupures, les moteurs avec un rendement supérieur ou de la vaisselle qui se nettoie plus facilement. Les virus crées génétiquement sont développés pour être utilisés comme batteries. Et, avec Internet qui permet aux designers de collaborer sur les nouveaux produits, les barrières d’entrées sont en train de s’effondrer. Ford avait besoin d’un gros tas de capital pour construire sa colossale usine River Rouge; son équivalent moderne peut commencer avec trois fois rien dont un ordinateur portable connecté et la soif d’inventer.

Comme toutes les révolutions, celle-ci sera fortement perturbatrice. La technologie numérique a déjà renversé les média et la vente au détail, comme les filatures de coton ont écrasé les métiers à tisser manuels et la Ford T a mis les maréchaux-ferrants au chômage. Les gens seront extrêmement surpris devant les usines du futur. Elle ne seront pas pleines de machines crasseuses commandées par des hommes en blouse graisseuse. Beaucoup seront d’une propreté irréprochable et quasi-désertes. Certains fabricants de voitures produisent le double de véhicules par employé qu’il y a dix ans. La plupart des emplois ne sera plus dans les usines mais dans les bureaux non loin, qui seront pleins de designers, d’ingénieurs, d’informaticiens, d’experts en logistique, de commerciaux et d’autre professions. Les emplois manufacturiers du futur demanderont d’avantage de compétences. De nombreuses taches répétitives et ennuyeuses deviendront obsolètes : on n’a pas besoin de riveteur quand un produit n’a plus de rivets.

La révolution n’affectera pas seulement la façon dont les choses sont faites, mais aussi le lieu où elles sont produites. Avant les usines se délocalisaient dans des pays à bas salaires pour diminuer le coût du travail. Mais le coût du travail est de moins en moins important : un iPad de première génération à 499 $ comprend aujourd’hui seulement 33 $ de travail manufacturé sur lequel l’assemblage final en Chine ne représente que 8 $. La production aujourd’hui offshore va de plus en plus souvent revenir dans les pays riches, bien moins à cause d’une hausse des salaires chinois que parce que les compagnies veulent désormais être plus proches de leurs clients de façon à pouvoir répondre plus rapidement à leurs demandes de modifications. Et certains produits sont si sophistiqués qu’il est pratique d’avoir les personnes qui les ont conçus et celles qui les ont fabriqués au même endroit. Le Boston Consulting Group estime que dans des domaines comme les transports, les ordinateurs, la fabrication de produits métalliques et la machinerie, 10 à 30 % des biens que les américains importent actuellement de Chine pourraient être fabriqués à domicile d’ici 2020, stimulant l’exportation américaine de 20 à 55 milliards de dollars par an.

Le choc de la nouveauté

Les consommateurs auront peu de difficultés à s’adapter à cette nouvelle ère de meilleurs produits rapidement livrés et créés près de chez eux. Les gouvernements pourraient toutefois commencer par résister au mouvement. Leur instinct est de protéger les industries et les entreprises qui existent déjà plutôt que de promouvoir les nouvelles qui les détruiront. Ils attirent les anciennes usines avec des subventions et stigmatisent les patrons qui voudraient délocaliser. Ils dépensent des milliards dans de nouvelles technologies qui, à leur avis, prévaudront dans l’avenir. Et ils s’accrochent à la croyance romantique que la fabrication est supérieure aux services, sans prendre en compte la finance.

Rien de ceci n’a de sens. Les frontières entre la manufacture et les services deviennent floues. Rolls-Royce ne vend plus de réacteurs, elle vend les heures pendant lesquelles chaque moteur propulse un avion dans le ciel. Les gouvernements ont rarement choisi les vainqueurs, et ils vont probablement mettre du temps à voir ces légions d’entrepreneurs et de bricoleurs qui s’échangent des plans en ligne, les transforment en produits chez eux et les vendent à l’échelle mondiale depuis un garage.

Pendant que la révolution gronde, les gouvernements devraient en rester aux bases : de meilleures écoles pour une main d’œuvre qualifiée, des règles claires et équitables pour les entreprises de toutes sortes. Laissez le reste aux révolutionnaires.

Crédit photo : Pasukaru76 (Creative Commons By)




Diaspora, le projet qui se voulut aussi gros que Facebook, pas encore mort car libre

Il y a une semaine on nous a annoncé que Diaspora serait désormais livré à la communauté.

Pour rappel Diaspora est le projet d’alternative libre à Facebook mené par des étudiants newyorkais et qui avaient créé le buzz et amassé beaucoup d’argent sur Kickstarter au moment du lancement en 2010.

Il y avait énormément d’attentes autour de ce projet car réussir à se sortir des griffes de Facebook ça n’est pas rien !

Plusieurs versions de l’application ont bien vu le jour, plusieurs dizaines de milliers d’utilisateurs se sont inscrits, mais c’est globalement la déception qui a prévalu. Ils n’ont pas réussi (et englouti l’argent), alors changement de gouvernance, plus de transparence, on donne le tout à la communauté (et qu’elle se débrouille si elle pense que le projet vaut la peine d’être poursuivi). Cela ressemble plus à un renoncement plein d’amertume qu’à un cadeau bienveillant, mais les optimistes répliqueront que c’est la force du libre que de pouvoir continuer l’aventure d’un projet même lorsqu’il se trouve bloqué.

Le billet ci-dessous tente de tirer les leçons de cette histoire et de cet échec.

Échec temporaire ou définitif ? Cela va dépendre justement de la communauté.

Diaspora

Diaspora : un nouveau départ ou une mise en garde du financement participatif ?

Diaspora: A New Beginning or a Crowdfunding Cautionary Tale?

By Paul M. Davis – 29 août 2012 – Shareable.net
(Traduction : boubou, Ward, imada, Gatitac, moedium, xaccrocheur, Penguin, aKa, sheldon, martinien)

Il y a deux ans, quatre étudiants de l’université de New York surfèrent sur le sentiment anti-Facebook et ont récolté via le site Kickstarter plus de 200 000 $ pour créer Diaspora, un réseau social open source.

Les fondateurs ont annoncé lundi qu’ils livraient leur projet à la communauté open source, ce qui va peut-être relancer le développement d’une plate-forme de réseau social au-delà de ce qu’ils ont réussi à créer jusqu’à maintenant. Dans le cas contraire, nous aurions à faire avec un échec patent d’un projet issu du financement participatif (NdT Crowdfunding).

D’une certaine manière, l’histoire de Diaspora est le reflet de la jeunesse de ses créateurs : optimisme sans limite et promesses sans fins ont laissé place au scepticisme, à la déception, aux réactions négatives et même à des tragédies personnelles. Après que la campagne KickStarter a atteint 20 fois son objectif initial, les développeurs furent mis sous une pression extrême de produire un résultat. Les sorties furent repoussées, les messages et la communication devinrent confus. En moins d’un an, le sentiment négatif qui était né durant la campagne de levée de fonds semblait se retourner contre le projet lui-même.

Au milieu de tout le tapage qui a entouré le lancement et le succès de la campagne de Diaspora, un sentiment de scepticisme a commencé à apparaître. Au plus fort de la campagne, des voix importantes comme celle de Clay Shirky ont amplifié les doutes sur la possibilité que Diaspora puisse atteindre son ambitieux objectif d’une livraison de la version alpha à la fin de l’été. La sortie privée de la version alpha eut lieu en novembre 2010 et a reçu un accueil modérément optimiste parmi les donateurs et la presse spécialisée, mais ce délai et les fonctionnalités limitées ont renforcé les arguments de ceux qui doutaient. A partir de mai 2011, des blogs techniques de haut niveau comme TechCrunch commençaient à critiquer le projet comme des vieilles nouvelles et à le qualifier de vaporware.

Confirmant les soupçons des sceptiques, les fondateurs annoncèrent en juillet 2011 qu’après avoir levé 20 fois leur objectif, Diaspora était déficitaire de 238 $ (PDF). En octobre 2011, les fondateurs essayèrent de faire taire les mauvaises rumeurs avec un post sur leur blog intitulé Diaspora : ni vaporware, ni prince Nigérian”. Malheureusement, s’ensuivit rapidement le suicide de Ilya Zhitomirskiy, co-fondateur du projet. En avril dernier, l’équipe Diaspora déclara que « les choses commencent à changer » en partageant des copies d’écrans d’une campagne de hashtag ayant une ressemblance frappante avec le site makr.io, un autre projet récemment annoncé par les mêmes fondateurs de Diaspora.

Puisque le but de Diaspora a toujours été de devenir un véritable projet open source, il est trop tôt pour voir l’annonce de lundi dernier comme un échec. Mais ce transfert open source ressemble plus un renoncement qu’à un cadeau à la communauté.

Alors, à quoi ressemblera le futur de Diaspora ? Dans une interview à BetaBeat, le co-fondateur Max Salzberg a déclaré que « beaucoup de projets open source exploitent la communauté », citant Mozilla et WordPress en exemple. Même s’il est vrai que Mozilla et WordPress s’appuient sur une large communauté de contributeurs, la comparaison de Salzberg ne tient pas car les deux projets cités sont également soutenus par de gros apports financiers, qu’il s’agisse d’argent provenant du Kickbacks de Google (Mozilla) ou des services premium pour les entreprises (WordPress).

Pour envisager ce que pourrait être le futur de Diaspora, il vaut la peine de prendre en considération un projet récent inspiré par un mécontentement similaire des utilisateurs. La plateforme qui suscite actuellement la colère des geeks est Twitter, qui ne cesse de serrer la vis sur l’écosystème du développement en limitant l’accès aux API et en mettant en place une stratégie commerciale qui le fera ressembler beaucoup plus à Facebook qu’à un simple flux de messages de 140 caractères. Ceci a poussé récemment au financement réussi de app.net, un service alternatif lancé d’une manière très différente. Au lieu de construire une plateforme ouverte et décentralisée, ce que les étudiants derrière Diaspora visaient, app.net développe une plateforme sociale centralisée financée par les abonnements des utilisateurs plutôt que par la publicité. Le projet a récemment atteint son objectif de campagne de 500 000 $ par des inscriptions de membres à 50 $, en grande partie grâce à l’approbation tacite des blogueurs influents et des développeurs qui ont été parmi les détracteurs les plus virulents de Twitter ces dernières semaines.

Pour qui est fait Diaspora ?

Malgré les différences fondamentales entre Diaspora et app.net, ils partagent le même problème de base : atteindre l’effet de réseau. Le succès d’un réseau social dépend d’un certain nombre de facteurs : des utilisateurs de la première heure qui sont aussi de vrais partisans, du buzz médiatique, une nouvelle solution à un problème existant, ou, à défaut d’autre chose, de la nouveauté.

Qu’en est-il pour Diaspora ? Cela fait longtemps que le buzz s’est estompé. Et, comme Google l’a découvert avec Plus, ce n’est pas parce que les gens sont « agacés par Facebook » qu’il vont avoir le temps ou l’envie de changer de réseau social, surtout si leur amis ne le font pas.

Lancer un nouveau service social en direction de la geekratie peut sembler pertinent au démarrage à fortiori lorsque le projet est open source. Mais pour que la sauce prenne, il faut aller au-delà des geeks et être aussi rapidement adopté par la masse. Diaspora ne s’adresse-t-il pas avant tout à ceux qui ne sont pas intimidés par les commits Git ou monter une instance Heroku, à ceux, pas assez nombreux, qui ont bien conscience qu’ils vont offrir leurs données personnelles à une société contre un service Web gratuit ? Et dans ce cas, quelles différences fondamentales avec des sites déjà existants comme Slashdot, Github ou Stack Overflow ? De plus, et bien que les caractéristiques sociales de ces services soient souvent limitées, il existe déjà de nombreuses plates-formes de réseaux sociaux open source sur le marché : Drupal, Elgg, Buddypress, Pligg, Mahara, pour en nommer quelques-unes.

Le potentiel de la fédération

La dernière carte à jouer pour Diaspora peut être son architecture fédérée. Dans une époque de services centralisés et financés par la publicité, tels Facebook,Twitter et Google, il y a un attrait certain pour une plateforme sociale fonctionnant sur une architecture décentralisée.

Une telle approche devient plus impérieuse si l’on considère la facilité avec laquelle le gouvernement américain a fermé des sites prétendument coupables d’infraction ces dernières années et comment il peut accéder aux données personnelles d’activistes sur les médias sociaux, comme Malcom Harris de Shareable s’en est aperçu au cours d’un long procès concernant son activité sur Twitter. En théorie, les nœuds d’une plate-forme sociale, qui forment un réseau p2p, pourraient être tissés dans un garage ou un placard et être déconnectés facilement, avec un faible impact sur le réseau.

Mais alors on en revient au problème des effets du réseau : la valeur de Twitter pour le mouvement Occupy ne relevait pas simplement de la communication et de l’organisation mais aussi de la diffusion. Les personnes sur le terrain étaient capables de diffuser des scènes de violence policière en temps réel, non seulement aux autres membres du mouvement sur un quelconque réseau social partagé, mais également au monde entier.

Des réseaux sociaux fédérés existent déjà, tel StatusNet sur lequel repose le rival largement oublié de Twitter, identi.ca. Mais même avec la pleine connaissance des risques de confidentialité de l’utilisation de Twitter ou Facebook, la plupart des activistes d’Occupy ne diffusaient pas vers la poignée de geeks qui postent encore des conseils pour Drupal sur identi.ca. Ils se sont plutôt dirigés là ou l’audience la plus vaste et diversifiée verrait leurs message : Twitter, Facebook et Youtube.

Rien de ceci ne permet de dire qu’une solution fédérée ne peut fonctionner, seulement que les défis sont très grands. Maintenant que Diaspora a été remis entre les mains de la communauté, il est trop tôt pour le déclarer mort. Comme les fondateurs l’ont noté dans leur annonce, le compte Github de Diaspora est actif (tout comme son projet sur Pivotal Tracker).

Je reste d’un optimisme prudent quant à la capacité de la communauté open source à créer quelque chose de grand à partir du code que les fondateurs ont lâché dans la nature. Peut-être que le code existant sera forké et deviendra la base d’un nouveau projet allant bien au delà du Diaspora actuel. Mais quoi qu’il advienne, son développement tumultueux restera comme un récit de mise en garde vis-à-vis du crowdfunding, sur les dangers des promesses qu’on ne peut pas tenir.




« Chanter sans autorisation » : introduction aux enjeux du libre

Woody Guthrie (Commons PD)This Machine Kills Fascists…

Quand, dans le Monde diplomatique il est question du numérique en général et du Libre en particulier il y a de bonnes chances pour que l’article soit signé Philippe Rivière (alias Fil) et ce depuis près de quatorze ans.

Il faut dire qu’être l’un des papas de SPIP lui donne une certaine expérience, pour ne pas dire une expérience certaine.

Il a publié en juillet dernier, dans le magazine culturel en ligne Rictus.info, un papier qui synthétise bien la situation et que nous aimerions plus encore faire connaître, d’où cette reproduction.

« Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter. »

« Chanter sans autorisation » : introduction aux enjeux du libre

URL d’origine du document (Rictus.info)

Philippe Rivière – juillet 2012 – Licence Creative Commons By-Sa

À l’occasion des Rencontres Mondiales du Logiciel Libre, nous avons demandé à Philippe Rivière[1], de nous faire un petit tour d’horizon de la question du logiciel libre. Exposé des forces en présence et des enjeux.

Un peu de musique

Au début des années 1940, sur ses premiers disques, le compositeur américain Woody Guthrie avait fait inscrire la mention suivante sous le titre Copyright Warnings :

« Cette chanson est protégée aux États-Unis sous le sceau du copyright #154085 pour une période de 28 ans, et toute personne prise à la chanter sans autorisation sera mon meilleur ami, car je n’en ai rien à fiche. Publiez-la. Ecrivez-la. Chantez-la. Dansez dessus. Yodelez-la. Je l’ai écrite, c’est tout ce que je voulais faire. »

Aujourd’hui, chaque fois que vous insérez un film dans votre lecteur DVD, vous devez endurer une très longue présentation avec des écrans affreux du style :

« WARNING. La reproduction ou la redistribution non autorisée de cette œuvre copyrightée est illégale. Une violation criminelle de ce copyright, même sans gain monétaire, sera suivie d’une enquête du FBI et est punissable d’une peine d’emprisonnement allant jusqu’à cinq ans dans une prison fédérale, et d’une amende de 250 000 dollars »

Drôle de manière de vous remercier d’avoir acheté le DVD.

Dans l’informatique, c’est la même chose : les auteurs de logiciels ont deux possibilités pour s’adresser à leur public — c’est-à-dire les utilisateurs ; soit ils leur font signer une clause légale expliquant qu’il faut faire très attention à d’utiliser le logiciel comme il convient, si on veut avoir quelques chances de ne pas aller en prison. Soit ils leur disent : que toute personne prise à jouer avec ce logiciel comme elle l’entend sera mon meilleur ami !

Dans le premier cas, on parle de logiciel propriétaire (ou privateur), dans le second, de logiciel libre.

Logiciel capturé

Le logiciel n’est pas né en cage. Les premiers programmes étaient comme des formules de maths ou des recettes de cuisine : en dollars, ils ne valaient rien, puisqu’on les donnait avec la machine — qui, elle, coûtait très cher.

Comme l’écrit Lawrence Lessig, un juriste américain spécialisé dans le droit d’auteur :

« Vous ne pouviez pas faire tourner un programme écrit pour une machine Data General sur une machine IBM, donc Data General et IBM ne se préoccupaient pas de contrôler leur logiciel. »

Mais bien évidemment leur valeur était énorme, puisque sans programmes, l’ordinateur se limitait à allumer un C> clignotant sur un écran noir… Ce qu’un certain Bill Gates avait bien compris, c’est que le contrôle du logiciel permet de mettre la main sur l’ensemble du dispositif : IBM, la gigantesque firme américaine, ne l’avait pas compris. Elle voulait vendre des ordinateurs personnels, et se fichait bien de savoir ce qui fonctionnerait dessus : pressée d’arriver sur le marché, elle y a installé MS-DOS, un logiciel fourni par le jeune Bill Gates… on sait ce qu’il est advenu de ce choix : Microsoft, l’éditeur de MS-DOS, est rapidement devenu le plus gros éditeur de logiciels, et continue aujourd’hui à prélever une rente énorme sur l’ensemble des usages de l’informatique.

Free Software Foundation et licence GPL

De son côté, un certain Richard Stallman, chercheur au MIT, à Boston, s’était habitué, comme tous les informaticiens des années 1970, à bidouiller les programmes qui se trouvaient sur ses machines, pour les améliorer ou les adapter à la configuration de son matériel. Ça faisait partie de la normalité dans l’informatique, et encore plus dans le monde universitaire ; il aimait le sens de la communauté qui se développait autour de la programmation. Des échanges d’astuces, des concours pour être le premier à trouver une solution, etc.

Mais un jour, il s’aperçut que le code du logiciel pilote d’une imprimante n’était pas livré avec la machine, et qu’il ne pouvait donc pas le modifier — seulement le faire tourner, sans savoir ce qui était programmé exactement. S’il y avait un bug, il fallait contacter l’éditeur pour signaler le problème, et attendre une hypothétique nouvelle version… qui viendrait sans doute plus tard, et qu’il faudrait, en plus, à nouveau payer. On était au début des années 1980. Ce genre de choses commençait à se répandre, et Stallman comprit que les logiciels, qui étaient nés libres, ne le resteraient pas si personne ne les défendait. Il faudrait les protéger, sur le plan légal ; et les structurer d’une manière efficace. Il décida d’en faire son combat.

En 1984, Stallman démissionna du MIT (pour ne pas avoir de liens hiérarchiques qui pourraient lui coûter son indépendance), et fonda le projet GNU, puis la Free Software Foundation. D’un côté, un projet technique, consistant à fabriquer un système d’exploitation totalement libre — c’est-à-dire sans aucun composant propriétaire. De l’autre, une fondation dédiée à la protection du logiciel libre.

Il écrivit de nombreux logiciels (le plus connu est peut-être l’éditeur de texte Emacs). Et en parallèle, fit un travail juridique qui aboutit à la Licence publique générale GNU, la « GPL ». Elle est nettement moins « fun » que la licence de Woody Guthrie, mais elle garantit à tout utilisateur :

  • le droit d’utiliser le logiciel pour faire ce qu’il veut
  • le droit de lire le code source du logiciel, c’est-à-dire les éléments qui permettent de comprendre ce qu’il fait
  • le droit de modifier ce code source
  • le droit de redistribuer le logiciel ainsi que les versions modifiées.

Pour bénéficier de cela, l’utilisateur s’engage en échange à passer ces mêmes droits aux personnes à qui il le redistribue.

Bien sûr, tout le monde n’a pas forcément envie d’aller modifier le code… mais savoir que quelqu’un peut le faire, c’est avoir une certaine garantie.

Pour une entreprise, par exemple, c’est l’assurance que, si on n’est pas satisfait du prestataire à qui on a demandé de programmer quelque chose, ou s’il disparaît, on pourra légalement aller en voir un autre sans devoir repartir de zéro. C’est important.

Libertés pour l’utilisateur

Pour un particulier, on peut apprécier le fait que les logiciels libres sont souvent gratuits, ou en tous cas moins chers que les logiciels propriétaires. Cela dit, il ne faut pas confondre libre et gratuit ; « free » software, c’est « free » comme « freedom », pas comme « free beer ». Il y a des logiciels gratuits qui ne sont pas libres. Et, vice versa, pour développer un logiciel libre il faut quand même parfois que quelqu’un travaille…

Mais le plus important, pour l’utilisateur, n’est pas dans la gratuité : c’est que l’informatique touche de plus en plus aux libertés quotidiennes. Sur l’ensemble de la planète, à part quelques irréductibles hommes des cavernes, chacun porte en permanence sur soi un mouchard qui signale à tout instant où il se trouve précisément. Ce mouchard, cinq milliards d’humains en sont équipés. Il sert, parfois, à téléphoner…

L’informatique est aussi dans les voitures ; bientôt dans les frigos ; dans les habits, avec les puces RFID ; dans les passeports biométriques ; dans les cartes d’électeur – les machines à voter ! – ; il faut aller sur Internet pour voir les notes de collège de ses enfants ; on parle de numériser toutes les données de santé dans un « dossier médical personnel » accessible sur Internet (certains l’appellent dossier médical « partagé », car il est tout de même difficile à l’heure de WikiLeaks de prétendre qu’on saura empêcher le piratage…).

Discuter, s’informer, créer, partager, faire de la politique… tout ça est en train de s’informatiser, et si on ne contrôle pas collectivement les machines autour desquelles se construit de plus en plus la vie sociale, ce sont les machines qui nous contrôleront … ou plus exactement, ceux qui les programment.

Un seul exemple : vous avez entendu parler de Kindle, le livre électronique vendu par Amazon.com ; c’est génial, vous pouvez acheter et télécharger des dizaines de livres, et les lire sur un petit écran. Un jour donc, en juillet 2009, les commerciaux d’Amazon s’aperçoivent qu’ils ont fait une boulette dans leur offre : ils ont vendu électroniquement un livre pour lequel ils ne disposaient pas des droits de reproduction.

Ni une ni deux, que font-ils ? Ils attendent que les Kindle des clients se connectent, et leur envoient l’instruction d’effacer le livre. De quel livre s’agit-il ? « 1984 », de George Orwell, le livre qui décrit Big Brother et la police de la pensée !

Succès ou échec ?

Je ne vais pas énumérer les succès du logiciel libre : en 1990, un étudiant en informatique de l’université de Helsinki, Linus Torvalds, aimerait bien utiliser chez lui le programme sur lequel il travaille à l’université, un « noyau ». Il repart donc de zéro et crée son propre « noyau », qu’il place sans guère y accorder de réflexion sous la licence GPL. Ce sont les débuts d’Internet dans les facs, et rapidement ce noyau se développe ; comme Stallman avait développé de nombreux morceaux de code de GNU, mais pas encore de noyau, les deux projets cohabitent et donnent naissance à ce qu’on appelle maintenant GNU/Linux.

Les logiciels libres sont partout ; ils font tourner des ordinateurs personnels, et l’essentiel d’Internet. Ils sont dans les labos de recherche, les entreprises, etc.

Et il n’y a pas que la GPL. D’autres licences libres existent, qui permettent parfois plus de souplesse, moins de contrainte pour des utilisateurs qui modifient le code pour l’utiliser dans des projets fermés. Pour des textes ou des photos, on peut préférer des licences comme les Creative Commons. Pour des librairies (morceaux de code qui peuvent servir de fondation à des logiciels plus élaborés), on peut exiger que toute modification de la librairie soit libre, mais sans exigence sur les logiciels élaborés en question. D’autres font des licences plus proches de celle de Woody Guthrie (« je m’en fiche »), comme la licence MIT, ou encore la WTFPL (Do What The Fuck You Want To Public License / licence publique rien à branler).

A l’heure actuelle, les smartphones sont dominés par deux systèmes : Apple iOS et Google Android, qui sont basés sur des logiciels libres. Bien sûr chez Apple, les logiciels ne sont pas du tout libres ; mais ils sont construits sur une fondation totalement libre, NetBSD. Quant à Android, il est tellement bardé de brevets qu’il n’est pas non plus vraiment libre. Mais enfin, il contient beaucoup de logiciels libres.

En termes quantitatifs, on peut parler d’un succès : ce qui était perçu par les médias comme « marginal » est désormais au centre du tissu économique et du développement de l’informatique.

D’après une étude publiée en 2010[2] : Le secteur est estimé à 1,5 milliard d’euros en France, avec un taux de croissance moyen de 17 % (par an). Environ la moitié des directeurs informatiques interrogés lors de l’étude ont déclaré utiliser des logiciels libres et ce, quelle que soit la taille de l’entreprise.

La guerre contre le libre

Il y a la menace juridique : en ce moment, c’est la guerre des brevets. Google a racheté en août 2011 le fabricant de téléphones portables Motorola pour 12,5 milliards de dollars, dans le but de mettre la main sur 25 000 brevets ! Or on dépose actuellement des brevets sur tout et n’importe quoi, avec des effets très curieux. Des menaces de procès et des bras de fer judiciaires qui aboutissent à des accords entre les grandes sociétés qui possèdent ces portefeuilles de brevets.

Enfin, il y a la menace plus directe de la prise de contrôle de l’ordinateur. Au nom bien entendu de votre sécurité. Par exemple, ce qu’on appelle « l’informatique de confiance », un terme censé nous rassurer, est une stratégie qui interdit à tout logiciel qui n’est pas reconnu et « signé » par une société comme Microsoft, ou Apple, de s’exécuter sur votre machine.

Ou encore, au nom de la protection des droits d’auteurs, la loi HADOPI qui nous impose l’obligation de « sécuriser notre réseau ». Alors que même l’armée américaine n’est pas capable d’empêcher des documents de « fuiter » !

Les iPhone sont eux-mêmes totalement verrouillés et il faut passer exclusivement par le magasin en ligne d’Apple pour modifier le logiciel (même si techniquement il reste possible de « jailbreaker », ce n’est pas autorisé par le constructeur).

Et je passe sur les projets qui se multiplient au nom de la lutte contre le piratage, contre la criminalité ou contre le terrorisme (SOPA, ACTA, HADOPI, LOPPSI, DMCA, etc), sans parler de la surveillance des communications qui se pratique plus ou moins illégalement et de façon massive[3]. Aux États-Unis, l’association des producteurs de musique, la MPAA, demande que ce qui marche en Chine (la « grande muraille électronique » qui permet au pouvoir de surveiller les internautes) soit appliqué à l’ensemble de l’Internet !

Pour la FSF : « Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller. »

Pour le romancier Cory Doctorow (et excellent blogueur), les États et les entreprises se préparent à une « guerre à venir sur la computation à but général », et « l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi ».

Biens communs

Et puis il y a la propagande.

Aujourd’hui, les manifestants d’Occupy Wall Street, qui contestent le système capitaliste, sont traités de « terroristes ». Ce qui pourrait permettre à la police de les pister, de placer des mouchards dans leur ordinateur, etc.

Déjà Bill Gates en 2005 voyait des rouges partout :

« Il y a certains communistes d’un genre nouveau, cachés sous différents masques, qui veulent se débarrasser des mesures incitatives dont bénéficient les musiciens, les cinéastes et les créateurs de logiciels. »

J’avoue que je ne suis pas totalement choqué par cette critique. Elle est maligne, car parmi les auteurs de logiciels libres il y a beaucoup de gens qui ne sont pas particulièrement de gauche, et même des « ultra-capitalistes » comme se définit par exemple le leader du Parti pirate suédois, Rickard Falkvinge. Mais en effet, quand on crée du logiciel libre, quand on défend le partage de la culture sur Internet, quand on construit des sites sur le Web, on produit, collectivement, un bien public. Qui appartient à tout le monde, et où chacun va pouvoir venir puiser à sa guise, et utiliser ce que vous avez fait pour faire avancer ses propres projets. Le savoir, la culture sont cumulatifs, nous sommes « des nains sur des épaules de géants »[4].

Au-delà du logiciel libre, il faut réfléchir à l’ensemble des biens communs informationnels : la science, la culture, l’amusement, le logiciel dans tous les domaines… Internet permet de les diffuser, mais comment mobiliser des ressources pour les produire, et comment les défendre ? Certainement pas en les enfermant derrière des murs de paiement, des systèmes de DRM provoquant l’autodestruction des fichiers… Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter.

Crédit photo : Woody Guthrie NYWTS (Wikimedia Commons)

Notes

[1] Co-auteur de SPIP (le logiciel qui sert à publier ce site, mais aussi des milliers d’autres) et journaliste au Monde diplomatique

[2] Étude sur l’impact socio-économique du libre citée dans la presse

[3] Cf. l’article d’Antoine Champagne dans Le Monde diplomatique de janvier 2012

[4] Bernard de Chartres, XIIe siècle




Apparition de monnaies alternatives en Grèce boostées par le Net et l’Open Source

Les systèmes d’échange local (ou SEL) existent depuis bien longtemps.

Dans la situation actuelle de la crise européenne, ils pourraient bien retrouver une seconde jeunesse grâce au réseau et à son esprit libre.

Apostolos - CC by-sa

La montée des monnaies open source en Grèce

Open-source currencies on the rise in Greece

Zachary Caceres – 25 juillet 2012 – Radical Social Entrepreneurs
(Traduction : Amine Brikci-N, brieuc, volk, Tonio, YoDigue, Mnyo, Gatitac, KarmaSama, Uflex)

Dans l’ombre de la crise européenne, les habitants de la ville grecque de Volos prennent leur avenir monétaire en main.

Theodoros Mavridis et d’autres Grecs à court d’euros ont mis en place un système de monnaie locale appelé TEM, acronyme pour « Unité Alternative Locale » en grec.

Même si la Grèce est en panne d’euros, les Grecs ont encore des biens et des services utiles à s’échanger. Mais sans euros sonnants et trébuchants pour les payer sur le marché local, tout le monde est obligé de faire du troc : une semaine de cours de piano contre les ¾ d’une chèvre.

C’est là que le TEM intervient

Après avoir créé un compte, les membres échangent entre eux en utilisant les crédits TEM. Les nouveaux membres ont droit à un découvert d’au plus 300 TEM, ce qui constitue dans les faits un emprunt à taux 0 accordé par la communauté. Ce n’est qu’en proposant des biens demandés et des services en retour que les nouveaux membres pourront renflouer leur compte et continuer à faire des échanges.

Les crédits sont créés suivant ces règles lorsqu’un nouveau membre arrive : nul besoin de banque centrale ou d’autorité de régulation monétaire.

L’idée derrière les sytèmes alternatifs comme TEM n’est pas nouvelle. Les systèmes « clubs de troc » ou « SEL » existent déjà depuis un bon moment déjà. C’est dans des conditions d’extrême disfonctionnement monétaire que ces systèmes fonctionnent le mieux : l’Argentine a ainsi vu un développement national des clubs de troc pendant les différentes crises du peso à la fin des années 90 et au début des années 2000.

Ces systèmes ont néanmoins montré leurs limites par le passé.

Les clubs de troc obligent les gens à se rencontrer physiquement pour un marché du type « foire au bestiaux”. Cela a malheureusement limité les échanges à ceux où l’on pouvait être présent à un endroit précis, à un moment précis. L’utilisation de crédits papier fut une autre faiblesse majeure. La contrefaçon causa des accès d’inflation et éroda la confiance dans les clubs de crédit argentins.

Malgré les difficultés, M Marividis et ses congénères ont résolu la plupart de ces problèmes en hébergeant intégralement le système sur un réseau informatique.

A son arrivée le nouveau membre accède à la base de données de la communauté. Celle-ci a été conçue avec des logiciels open source et est hébergée sur un serveur néerlandais bon marché, ce qui permet de maintenir des frais de gestion faibles.

Le système en ligne permet aux utilisateurs d’accèder à la liste complète des acheteurs et des vendeurs (non sans rappeler Craiglist) ainsi que de noter les autres membres après chaque transaction. Le système de réputation devient particulièrement important compte tenu de la multiplicatiopn par huit du nombre de membres l’année dernière, ce qui a rendu le réseau plus impersonnel

Les transactions réelles ont lieu sous forme de virements d’un compte utilisateur à un autre. Pour éviter la fraude et assurer la transparence, les soldes utilisateur sont archivés dans une base de données accessible à tous. À l’heure actuelle, le TEM reste un complément à l’économie officielle et non pas une alternative. Contrairement à d’autres projets de monnaie alternative comme Bitcoin, les crédits TEM ne constituent pas réellement une monnaie. Ils sont d’un usage limité pour l’épargne puisque les comptes sont plafonnés et que le système n’offre pas de moyen de prêter avec intérêts

Mais si les choses empirent, ce système et les monnaies similaires vont devenir de plus en plus importantes pour les Grecs mis à l’écart de l’économie classique. Ces expériences pourraient aussi servir de base pour de prochaines innovations monétaires.

Et si les choses empirent ?

Les Grecs auront à déterminer en qui ils ont le plus confiance en ce qui concerne leur monnaie : Bruxelles, Athènes ou eux-mêmes.

Crédit photo : Apostolos (Creative Commons By-Sa)




L’open data favorise-t-il nécessairement l’open source ?

Voici une question simple posée, excusez du peu, sur un des blogs du site de la Commission européenne.

On vous la pose donc à notre tour et vous attend dans les commentaires 🙂

A priori la réponse semble évidemment positive mais c’est peut-être plus compliqué que cela sur le terrain…

OpenSourceWay - CC by-sa

« Les gouvernements qui adoptent l’open data vont également adopter l’open source »

Governments that embrace open data will also switch to open source

Gijs Hillenius – 30 juin 2012 – Euopean Commission
(Traduction Framalang : Goofy, Antoine)

Les experts de l’open data s’accordent à dire que les administrations publiques qui comprennent les bénéfices qu’elles peuvent tirer de rendre publiques leurs données vont également plus utiliser du libre et de l’open source. L’open data et l’open source sont en effet souvent confrontés aux mêmes résistances : un manque de formation initiale et une crainte de l’effet qu’ils peuvent avoir sur l’organisation.

« Utiliser des logiciels propriétaires pour l’open data n’est pas aussi utile et pertinent que d’utiliser des logiciels libres », indique Jeanne Holm, l’évangéliste de data.gov, l’initiative open data du gouvernement Américain. « Il est plus facile pour les organisations, mêmes celles qui ont peu de moyens, de commencer à travailler sur des séries de données publiques avec des logiciels open source. Ce type de logiciels réunit le savoir de toute la communauté ».

Holm a été une des oratrices de la conférence sur l’interopérabilité sémantique qui a eu lieu à Bruxelles le 18 juin 2012. « Je suis une fervente avocate de l’open source, je ne suis donc pas impartiale. Cependant, ces logiciels fournissent aux gouvernements un moyen de moderniser leurs systèmes informatiques sans devenir aussi rapidement obsolète qu’avec des solutions propriétaires ».

Pour Holms, les administrations publiques ne devraient plus considérer l’open source comme controversé. « Toutes n’en voient pas encore les bénéfices car l’open source les éloigne parfois de leur situation confortable ».

Une explication similaire est donnée par Julia Glidden, une experte du e-gouvernement et la directrice générale de la société britannique 21c Consultancy. Les services IT peuvent avoir des millions de prétextes pour ne pas utiliser l’open source, selon elle. « Ils peuvent montrer du doigt le manque d’ergonomie, de robustesse, de sécurité et d’autres limitations techniques ».

De grands dépensiers

Glidden déclare que la migration en faveur de l’open source est largement une affaire de gestion du changement. L’open source menacerait la carrière des responsables informatiques. Cela change la relation qu’ils ont avec les gros vendeurs d’informatique et impacte négativement les budgets importants qui leurs sont alloués. « Ils considèrent l’open source comme une menace pour leur carrière et leur position acquise au sein de l’organisation. ». Pour elle, il en va de même pour l’open data. « Ils craignent, par exemple, de perdre leur emploi en cas d’utilisation abusive de ces données ».

De manière plus positive, les administrations publiques peuvent maintenant obtenir de l’aide sur le marché pour utiliser de l’open source dit-elle. On a atteint un seuil d’acceptation critique. « Il y a des vendeurs, des prestataires de service. Ce n’est pas le cas pour l’open data. Il y a besoin de consultants pour les aider à changer d’approche avec ce genre de partage de l’information ».

D’après Glidden, l’open data et l’open source se renforcent mutuellement. « La gouvernance fermée est morte, c’est juste une question de temps. Ils vont migrer vers de l’open source, ils feront de même pour l’open data ».

La philosophie du gouvernement

Katleen Janssen, une chercheuse au centre interdisciplinaire pour le droit et les TIC à l’Université catholique de Louvain est moins convaincue de l’existence d’un lien direct entre open data et open source. « Si l’open data fait partie de la philosophie des administrations publiques, elles vont également migrer vers de l’open source. Cependant, si elles pratiquent l’open data parce que tout le monde le fait ou parce qu’elles y sont contraintes, l’effet sera plus restreint ».

Crédit photo : OpenSourceWay (Creative Commons By-Sa)




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.