1

La troisième révolution industrielle est en marche et nous pouvons tous y participer

La « troisième révolution industrielle » est une expression popularisée par un récent essai de Jeremy Rifkin. Mais s’il se penche attentivement sur la question de l’énergie, qu’il envisage durable et distribuée, il se montre moins prolixe sur la question de la production.

Or là aussi de profonds bouleversements nous attendent…

Je casse une assiette aujourd’hui. Je prends ma voiture pour aller chez Ikea en acheter une autre (construit en Chine). Je casse une assiette demain. Je vais chercher sur Internet le fichier numérique « assiette », puis je demande à mon imprimante 3D de m’en créer une nouvelle sous mes yeux ébahis.

Et là où ça devient encore plus intéressant c’est quand l’imprimante tout comme le fichier sont libres, m’assurant alors que j’aurais une grande variétés de fichiers « assiette » à télécharger et que je pourrais même les modifier à ma guise avant de les imprimer 🙂

Pasukaru76 - CC by

La Troisième Révolution industrielle

The third industrial revolution

The Economist – Avril 2012
(Traduction : Louson, Lolo le 13, angezanetti, Fe-lor, GPif, xaccrocheur, @poulpita, fck, Coyau)

La numérisation de la fabrication modifiera la manière de fabriquer les biens ainsi que la notion même de travail.

La première révolution industrielle commença à la fin du XVIIIe siècle, avec la mécanisation de l’industrie du textile. Les tâches qui avant étaient exécutées laborieusement à la main par des centaines de petites industries de tisserand ont été réunies en une seule fabrique, et l’usine était née. la seconde révolution industrielle arriva au début du XXe siècle quand Henry Ford maîtrisa l’évolution des lignes d’assemblage et conduit à l’âge de la production de masse. Les deux premières révolutions rendirent les gens plus riches et plus urbains. Maintenant une troisième révolution est en cours. La fabrication devient numérique. Elle risque pas de ne changer que les affaires, mais bien plus de choses encore.

De nombreuses technologies innovantes convergent : logiciels, nouveaux matériaux, robots plus habiles, nouveaux procédés (en particulier l’impression 3D) et une large variété de services web. L’usine du passé reposait sur la production en masse de produits identiques : Ford disait que les acheteurs de voiture pouvaient avoir la couleur qu’ils voulaient, tant que c’était noir. Mais le coût de production de lots plus petits, d’une plus grande variété, où chaque produit est fait précisément sur mesure selon le vœu de chaque client, est en train de chuter. L’usine du futur se concentrera sur la personnalisation de masse et ressemblera bien davantage à de toutes petites industries qu’à la ligne de montage de Ford.

Vers une troisième dimension

Autrefois, pour faire des choses, on vissait et on soudait. Maintenant un produit peut être conçu sur un ordinateur et « imprimé » sur une imprimante 3D, qui crée un objet en volume en accumulant des couches successives de matière. La conception numérique peut être ajustée en quelques coups de souris. L’imprimante 3D peut fonctionner sans surveillance et peut faire des objets trop complexes pour être produits dans une usine traditionnelle. Un jour, ces machines étonnantes pourront faire presque tout, partout, dans votre garage ou dans un village en Afrique.

Les applications d’impression 3D sont particulièrement époustouflantes. Déjà, les prothèses auditives, et les parties haute technologie des avions militaires sont imprimées avec des formes adaptées. Un ingénieur travaillant au milieu du désert, à qui il manquerait un certain outil n’a plus besoin de se le faire livrer dans la ville la plus proche. Il peut simplement télécharger le design et l’imprimer. Les jours où les projets sont arrêtés pour cause de pièce manquante, ou encore, lorsque les clients se plaignent de ne plus pouvoir trouver les pièces de rechange de ce qu’ils avaient achetés, seront bientôt de lointains souvenirs.

Les autres changements sont presque aussi capitaux. Les nouveaux matériaux sont plus légers, plus résistants et ont une durée de vie plus longue que les anciens. Les fibres de carbone remplacent l’acier et l’aluminium pour des produits allant du VTT aux avions de ligne. Les nouvelles techniques permettent aux ingénieurs de réduire la taille des objets. Les nanotechnologies donnent de nouvelles fonctions aux produits comme les bandages qui guérissent les coupures, les moteurs avec un rendement supérieur ou de la vaisselle qui se nettoie plus facilement. Les virus crées génétiquement sont développés pour être utilisés comme batteries. Et, avec Internet qui permet aux designers de collaborer sur les nouveaux produits, les barrières d’entrées sont en train de s’effondrer. Ford avait besoin d’un gros tas de capital pour construire sa colossale usine River Rouge; son équivalent moderne peut commencer avec trois fois rien dont un ordinateur portable connecté et la soif d’inventer.

Comme toutes les révolutions, celle-ci sera fortement perturbatrice. La technologie numérique a déjà renversé les média et la vente au détail, comme les filatures de coton ont écrasé les métiers à tisser manuels et la Ford T a mis les maréchaux-ferrants au chômage. Les gens seront extrêmement surpris devant les usines du futur. Elle ne seront pas pleines de machines crasseuses commandées par des hommes en blouse graisseuse. Beaucoup seront d’une propreté irréprochable et quasi-désertes. Certains fabricants de voitures produisent le double de véhicules par employé qu’il y a dix ans. La plupart des emplois ne sera plus dans les usines mais dans les bureaux non loin, qui seront pleins de designers, d’ingénieurs, d’informaticiens, d’experts en logistique, de commerciaux et d’autre professions. Les emplois manufacturiers du futur demanderont d’avantage de compétences. De nombreuses taches répétitives et ennuyeuses deviendront obsolètes : on n’a pas besoin de riveteur quand un produit n’a plus de rivets.

La révolution n’affectera pas seulement la façon dont les choses sont faites, mais aussi le lieu où elles sont produites. Avant les usines se délocalisaient dans des pays à bas salaires pour diminuer le coût du travail. Mais le coût du travail est de moins en moins important : un iPad de première génération à 499 $ comprend aujourd’hui seulement 33 $ de travail manufacturé sur lequel l’assemblage final en Chine ne représente que 8 $. La production aujourd’hui offshore va de plus en plus souvent revenir dans les pays riches, bien moins à cause d’une hausse des salaires chinois que parce que les compagnies veulent désormais être plus proches de leurs clients de façon à pouvoir répondre plus rapidement à leurs demandes de modifications. Et certains produits sont si sophistiqués qu’il est pratique d’avoir les personnes qui les ont conçus et celles qui les ont fabriqués au même endroit. Le Boston Consulting Group estime que dans des domaines comme les transports, les ordinateurs, la fabrication de produits métalliques et la machinerie, 10 à 30 % des biens que les américains importent actuellement de Chine pourraient être fabriqués à domicile d’ici 2020, stimulant l’exportation américaine de 20 à 55 milliards de dollars par an.

Le choc de la nouveauté

Les consommateurs auront peu de difficultés à s’adapter à cette nouvelle ère de meilleurs produits rapidement livrés et créés près de chez eux. Les gouvernements pourraient toutefois commencer par résister au mouvement. Leur instinct est de protéger les industries et les entreprises qui existent déjà plutôt que de promouvoir les nouvelles qui les détruiront. Ils attirent les anciennes usines avec des subventions et stigmatisent les patrons qui voudraient délocaliser. Ils dépensent des milliards dans de nouvelles technologies qui, à leur avis, prévaudront dans l’avenir. Et ils s’accrochent à la croyance romantique que la fabrication est supérieure aux services, sans prendre en compte la finance.

Rien de ceci n’a de sens. Les frontières entre la manufacture et les services deviennent floues. Rolls-Royce ne vend plus de réacteurs, elle vend les heures pendant lesquelles chaque moteur propulse un avion dans le ciel. Les gouvernements ont rarement choisi les vainqueurs, et ils vont probablement mettre du temps à voir ces légions d’entrepreneurs et de bricoleurs qui s’échangent des plans en ligne, les transforment en produits chez eux et les vendent à l’échelle mondiale depuis un garage.

Pendant que la révolution gronde, les gouvernements devraient en rester aux bases : de meilleures écoles pour une main d’œuvre qualifiée, des règles claires et équitables pour les entreprises de toutes sortes. Laissez le reste aux révolutionnaires.

Crédit photo : Pasukaru76 (Creative Commons By)




« Chanter sans autorisation » : introduction aux enjeux du libre

Woody Guthrie (Commons PD)This Machine Kills Fascists…

Quand, dans le Monde diplomatique il est question du numérique en général et du Libre en particulier il y a de bonnes chances pour que l’article soit signé Philippe Rivière (alias Fil) et ce depuis près de quatorze ans.

Il faut dire qu’être l’un des papas de SPIP lui donne une certaine expérience, pour ne pas dire une expérience certaine.

Il a publié en juillet dernier, dans le magazine culturel en ligne Rictus.info, un papier qui synthétise bien la situation et que nous aimerions plus encore faire connaître, d’où cette reproduction.

« Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter. »

« Chanter sans autorisation » : introduction aux enjeux du libre

URL d’origine du document (Rictus.info)

Philippe Rivière – juillet 2012 – Licence Creative Commons By-Sa

À l’occasion des Rencontres Mondiales du Logiciel Libre, nous avons demandé à Philippe Rivière[1], de nous faire un petit tour d’horizon de la question du logiciel libre. Exposé des forces en présence et des enjeux.

Un peu de musique

Au début des années 1940, sur ses premiers disques, le compositeur américain Woody Guthrie avait fait inscrire la mention suivante sous le titre Copyright Warnings :

« Cette chanson est protégée aux États-Unis sous le sceau du copyright #154085 pour une période de 28 ans, et toute personne prise à la chanter sans autorisation sera mon meilleur ami, car je n’en ai rien à fiche. Publiez-la. Ecrivez-la. Chantez-la. Dansez dessus. Yodelez-la. Je l’ai écrite, c’est tout ce que je voulais faire. »

Aujourd’hui, chaque fois que vous insérez un film dans votre lecteur DVD, vous devez endurer une très longue présentation avec des écrans affreux du style :

« WARNING. La reproduction ou la redistribution non autorisée de cette œuvre copyrightée est illégale. Une violation criminelle de ce copyright, même sans gain monétaire, sera suivie d’une enquête du FBI et est punissable d’une peine d’emprisonnement allant jusqu’à cinq ans dans une prison fédérale, et d’une amende de 250 000 dollars »

Drôle de manière de vous remercier d’avoir acheté le DVD.

Dans l’informatique, c’est la même chose : les auteurs de logiciels ont deux possibilités pour s’adresser à leur public — c’est-à-dire les utilisateurs ; soit ils leur font signer une clause légale expliquant qu’il faut faire très attention à d’utiliser le logiciel comme il convient, si on veut avoir quelques chances de ne pas aller en prison. Soit ils leur disent : que toute personne prise à jouer avec ce logiciel comme elle l’entend sera mon meilleur ami !

Dans le premier cas, on parle de logiciel propriétaire (ou privateur), dans le second, de logiciel libre.

Logiciel capturé

Le logiciel n’est pas né en cage. Les premiers programmes étaient comme des formules de maths ou des recettes de cuisine : en dollars, ils ne valaient rien, puisqu’on les donnait avec la machine — qui, elle, coûtait très cher.

Comme l’écrit Lawrence Lessig, un juriste américain spécialisé dans le droit d’auteur :

« Vous ne pouviez pas faire tourner un programme écrit pour une machine Data General sur une machine IBM, donc Data General et IBM ne se préoccupaient pas de contrôler leur logiciel. »

Mais bien évidemment leur valeur était énorme, puisque sans programmes, l’ordinateur se limitait à allumer un C> clignotant sur un écran noir… Ce qu’un certain Bill Gates avait bien compris, c’est que le contrôle du logiciel permet de mettre la main sur l’ensemble du dispositif : IBM, la gigantesque firme américaine, ne l’avait pas compris. Elle voulait vendre des ordinateurs personnels, et se fichait bien de savoir ce qui fonctionnerait dessus : pressée d’arriver sur le marché, elle y a installé MS-DOS, un logiciel fourni par le jeune Bill Gates… on sait ce qu’il est advenu de ce choix : Microsoft, l’éditeur de MS-DOS, est rapidement devenu le plus gros éditeur de logiciels, et continue aujourd’hui à prélever une rente énorme sur l’ensemble des usages de l’informatique.

Free Software Foundation et licence GPL

De son côté, un certain Richard Stallman, chercheur au MIT, à Boston, s’était habitué, comme tous les informaticiens des années 1970, à bidouiller les programmes qui se trouvaient sur ses machines, pour les améliorer ou les adapter à la configuration de son matériel. Ça faisait partie de la normalité dans l’informatique, et encore plus dans le monde universitaire ; il aimait le sens de la communauté qui se développait autour de la programmation. Des échanges d’astuces, des concours pour être le premier à trouver une solution, etc.

Mais un jour, il s’aperçut que le code du logiciel pilote d’une imprimante n’était pas livré avec la machine, et qu’il ne pouvait donc pas le modifier — seulement le faire tourner, sans savoir ce qui était programmé exactement. S’il y avait un bug, il fallait contacter l’éditeur pour signaler le problème, et attendre une hypothétique nouvelle version… qui viendrait sans doute plus tard, et qu’il faudrait, en plus, à nouveau payer. On était au début des années 1980. Ce genre de choses commençait à se répandre, et Stallman comprit que les logiciels, qui étaient nés libres, ne le resteraient pas si personne ne les défendait. Il faudrait les protéger, sur le plan légal ; et les structurer d’une manière efficace. Il décida d’en faire son combat.

En 1984, Stallman démissionna du MIT (pour ne pas avoir de liens hiérarchiques qui pourraient lui coûter son indépendance), et fonda le projet GNU, puis la Free Software Foundation. D’un côté, un projet technique, consistant à fabriquer un système d’exploitation totalement libre — c’est-à-dire sans aucun composant propriétaire. De l’autre, une fondation dédiée à la protection du logiciel libre.

Il écrivit de nombreux logiciels (le plus connu est peut-être l’éditeur de texte Emacs). Et en parallèle, fit un travail juridique qui aboutit à la Licence publique générale GNU, la « GPL ». Elle est nettement moins « fun » que la licence de Woody Guthrie, mais elle garantit à tout utilisateur :

  • le droit d’utiliser le logiciel pour faire ce qu’il veut
  • le droit de lire le code source du logiciel, c’est-à-dire les éléments qui permettent de comprendre ce qu’il fait
  • le droit de modifier ce code source
  • le droit de redistribuer le logiciel ainsi que les versions modifiées.

Pour bénéficier de cela, l’utilisateur s’engage en échange à passer ces mêmes droits aux personnes à qui il le redistribue.

Bien sûr, tout le monde n’a pas forcément envie d’aller modifier le code… mais savoir que quelqu’un peut le faire, c’est avoir une certaine garantie.

Pour une entreprise, par exemple, c’est l’assurance que, si on n’est pas satisfait du prestataire à qui on a demandé de programmer quelque chose, ou s’il disparaît, on pourra légalement aller en voir un autre sans devoir repartir de zéro. C’est important.

Libertés pour l’utilisateur

Pour un particulier, on peut apprécier le fait que les logiciels libres sont souvent gratuits, ou en tous cas moins chers que les logiciels propriétaires. Cela dit, il ne faut pas confondre libre et gratuit ; « free » software, c’est « free » comme « freedom », pas comme « free beer ». Il y a des logiciels gratuits qui ne sont pas libres. Et, vice versa, pour développer un logiciel libre il faut quand même parfois que quelqu’un travaille…

Mais le plus important, pour l’utilisateur, n’est pas dans la gratuité : c’est que l’informatique touche de plus en plus aux libertés quotidiennes. Sur l’ensemble de la planète, à part quelques irréductibles hommes des cavernes, chacun porte en permanence sur soi un mouchard qui signale à tout instant où il se trouve précisément. Ce mouchard, cinq milliards d’humains en sont équipés. Il sert, parfois, à téléphoner…

L’informatique est aussi dans les voitures ; bientôt dans les frigos ; dans les habits, avec les puces RFID ; dans les passeports biométriques ; dans les cartes d’électeur – les machines à voter ! – ; il faut aller sur Internet pour voir les notes de collège de ses enfants ; on parle de numériser toutes les données de santé dans un « dossier médical personnel » accessible sur Internet (certains l’appellent dossier médical « partagé », car il est tout de même difficile à l’heure de WikiLeaks de prétendre qu’on saura empêcher le piratage…).

Discuter, s’informer, créer, partager, faire de la politique… tout ça est en train de s’informatiser, et si on ne contrôle pas collectivement les machines autour desquelles se construit de plus en plus la vie sociale, ce sont les machines qui nous contrôleront … ou plus exactement, ceux qui les programment.

Un seul exemple : vous avez entendu parler de Kindle, le livre électronique vendu par Amazon.com ; c’est génial, vous pouvez acheter et télécharger des dizaines de livres, et les lire sur un petit écran. Un jour donc, en juillet 2009, les commerciaux d’Amazon s’aperçoivent qu’ils ont fait une boulette dans leur offre : ils ont vendu électroniquement un livre pour lequel ils ne disposaient pas des droits de reproduction.

Ni une ni deux, que font-ils ? Ils attendent que les Kindle des clients se connectent, et leur envoient l’instruction d’effacer le livre. De quel livre s’agit-il ? « 1984 », de George Orwell, le livre qui décrit Big Brother et la police de la pensée !

Succès ou échec ?

Je ne vais pas énumérer les succès du logiciel libre : en 1990, un étudiant en informatique de l’université de Helsinki, Linus Torvalds, aimerait bien utiliser chez lui le programme sur lequel il travaille à l’université, un « noyau ». Il repart donc de zéro et crée son propre « noyau », qu’il place sans guère y accorder de réflexion sous la licence GPL. Ce sont les débuts d’Internet dans les facs, et rapidement ce noyau se développe ; comme Stallman avait développé de nombreux morceaux de code de GNU, mais pas encore de noyau, les deux projets cohabitent et donnent naissance à ce qu’on appelle maintenant GNU/Linux.

Les logiciels libres sont partout ; ils font tourner des ordinateurs personnels, et l’essentiel d’Internet. Ils sont dans les labos de recherche, les entreprises, etc.

Et il n’y a pas que la GPL. D’autres licences libres existent, qui permettent parfois plus de souplesse, moins de contrainte pour des utilisateurs qui modifient le code pour l’utiliser dans des projets fermés. Pour des textes ou des photos, on peut préférer des licences comme les Creative Commons. Pour des librairies (morceaux de code qui peuvent servir de fondation à des logiciels plus élaborés), on peut exiger que toute modification de la librairie soit libre, mais sans exigence sur les logiciels élaborés en question. D’autres font des licences plus proches de celle de Woody Guthrie (« je m’en fiche »), comme la licence MIT, ou encore la WTFPL (Do What The Fuck You Want To Public License / licence publique rien à branler).

A l’heure actuelle, les smartphones sont dominés par deux systèmes : Apple iOS et Google Android, qui sont basés sur des logiciels libres. Bien sûr chez Apple, les logiciels ne sont pas du tout libres ; mais ils sont construits sur une fondation totalement libre, NetBSD. Quant à Android, il est tellement bardé de brevets qu’il n’est pas non plus vraiment libre. Mais enfin, il contient beaucoup de logiciels libres.

En termes quantitatifs, on peut parler d’un succès : ce qui était perçu par les médias comme « marginal » est désormais au centre du tissu économique et du développement de l’informatique.

D’après une étude publiée en 2010[2] : Le secteur est estimé à 1,5 milliard d’euros en France, avec un taux de croissance moyen de 17 % (par an). Environ la moitié des directeurs informatiques interrogés lors de l’étude ont déclaré utiliser des logiciels libres et ce, quelle que soit la taille de l’entreprise.

La guerre contre le libre

Il y a la menace juridique : en ce moment, c’est la guerre des brevets. Google a racheté en août 2011 le fabricant de téléphones portables Motorola pour 12,5 milliards de dollars, dans le but de mettre la main sur 25 000 brevets ! Or on dépose actuellement des brevets sur tout et n’importe quoi, avec des effets très curieux. Des menaces de procès et des bras de fer judiciaires qui aboutissent à des accords entre les grandes sociétés qui possèdent ces portefeuilles de brevets.

Enfin, il y a la menace plus directe de la prise de contrôle de l’ordinateur. Au nom bien entendu de votre sécurité. Par exemple, ce qu’on appelle « l’informatique de confiance », un terme censé nous rassurer, est une stratégie qui interdit à tout logiciel qui n’est pas reconnu et « signé » par une société comme Microsoft, ou Apple, de s’exécuter sur votre machine.

Ou encore, au nom de la protection des droits d’auteurs, la loi HADOPI qui nous impose l’obligation de « sécuriser notre réseau ». Alors que même l’armée américaine n’est pas capable d’empêcher des documents de « fuiter » !

Les iPhone sont eux-mêmes totalement verrouillés et il faut passer exclusivement par le magasin en ligne d’Apple pour modifier le logiciel (même si techniquement il reste possible de « jailbreaker », ce n’est pas autorisé par le constructeur).

Et je passe sur les projets qui se multiplient au nom de la lutte contre le piratage, contre la criminalité ou contre le terrorisme (SOPA, ACTA, HADOPI, LOPPSI, DMCA, etc), sans parler de la surveillance des communications qui se pratique plus ou moins illégalement et de façon massive[3]. Aux États-Unis, l’association des producteurs de musique, la MPAA, demande que ce qui marche en Chine (la « grande muraille électronique » qui permet au pouvoir de surveiller les internautes) soit appliqué à l’ensemble de l’Internet !

Pour la FSF : « Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller. »

Pour le romancier Cory Doctorow (et excellent blogueur), les États et les entreprises se préparent à une « guerre à venir sur la computation à but général », et « l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi ».

Biens communs

Et puis il y a la propagande.

Aujourd’hui, les manifestants d’Occupy Wall Street, qui contestent le système capitaliste, sont traités de « terroristes ». Ce qui pourrait permettre à la police de les pister, de placer des mouchards dans leur ordinateur, etc.

Déjà Bill Gates en 2005 voyait des rouges partout :

« Il y a certains communistes d’un genre nouveau, cachés sous différents masques, qui veulent se débarrasser des mesures incitatives dont bénéficient les musiciens, les cinéastes et les créateurs de logiciels. »

J’avoue que je ne suis pas totalement choqué par cette critique. Elle est maligne, car parmi les auteurs de logiciels libres il y a beaucoup de gens qui ne sont pas particulièrement de gauche, et même des « ultra-capitalistes » comme se définit par exemple le leader du Parti pirate suédois, Rickard Falkvinge. Mais en effet, quand on crée du logiciel libre, quand on défend le partage de la culture sur Internet, quand on construit des sites sur le Web, on produit, collectivement, un bien public. Qui appartient à tout le monde, et où chacun va pouvoir venir puiser à sa guise, et utiliser ce que vous avez fait pour faire avancer ses propres projets. Le savoir, la culture sont cumulatifs, nous sommes « des nains sur des épaules de géants »[4].

Au-delà du logiciel libre, il faut réfléchir à l’ensemble des biens communs informationnels : la science, la culture, l’amusement, le logiciel dans tous les domaines… Internet permet de les diffuser, mais comment mobiliser des ressources pour les produire, et comment les défendre ? Certainement pas en les enfermant derrière des murs de paiement, des systèmes de DRM provoquant l’autodestruction des fichiers… Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter.

Crédit photo : Woody Guthrie NYWTS (Wikimedia Commons)

Notes

[1] Co-auteur de SPIP (le logiciel qui sert à publier ce site, mais aussi des milliers d’autres) et journaliste au Monde diplomatique

[2] Étude sur l’impact socio-économique du libre citée dans la presse

[3] Cf. l’article d’Antoine Champagne dans Le Monde diplomatique de janvier 2012

[4] Bernard de Chartres, XIIe siècle




L’esprit de partage, une révolution de l’esprit #Sharism

Issu du verbe anglais to share qui veut dire partager, le « Sharism » est reconnu par Wikipédia.

Cela ne signifie pas que le concept, exposé ici par le chinois Isaac Mao, soit nécessairement valide, d’autant que le style verse parfois un peu trop dans le new age, mais il méritait selon nous un nouveau petit coup de projecteur.

Cet article a été rédigé en décembre 2008 (avant, par exemple, le réel avènement des réseaux sociaux). Il a été traduit initialement par Olivier Heinry sur son site.

Joi Ito - CC by

L’esprit de partage, une révolution de l’esprit

Sharism: A Mind Revolution

Isaac Mao – Décembre 2008 – Creative Commons By
(Traduction : Olivier Heinry)

Alors que le peuple du World Wide Web communique plus pleinement et plus librement par le biais des médias sociaux et que l’on assiste à une explosion des contenus 2.0, la dynamique interne d’une telle explosion créative se doit d’être étudiée de plus près. Quelle est la motivation de ceux qui rejoignent ce mouvement et quel futur vont-ils engendrer ? L’un des aspects clés consiste en la surabondance de respect de la part de la communauté et de capital social accumulés par ceux qui partagent.

La motivation clé des Médias Sociaux et l’esprit animant le Web 2.0 forment un changement de paradigme nommé Esprit de Partage. L’esprit de partage suggère une réorientation des valeurs individuelles. On le voit à l’œuvre dans les contenus générés par les utilisateurs. C’est l’allégeance des Creative Commons. Il fait partie des initiatives culturelles futuro-centriques. L’esprit de partage est également un exercice mental que tout un chacun peut essayer, une attitude socio-psychologique destinée à transformer un univers étendu et isolé en un Cerveau Social hyper-intelligent.

La doctrine du neurone

Le partagisme est encodé dans le Génome Humain. Bien qu’éclipsés par les nombreux pragmatismes du quotidien, la théorie du l’Esprit de Partage trouve sa source dans les neurosciences et l’étude du modèle opératoire du cerveau humain. Bien qu’il nous soit impossible de décrire le fonctionnement du cerveau dans son ensemble, nous disposons d’un modèle du mécanisme de fonctionnement du système nerveux et de ses neurones. Un neurone n’est pas qu’une simple cellule de l’organisme, mais un processeur biologique très puissant et excitable électriquement. Des groupes de neurones forment des réseaux intensément interconnectés, qui, en modifiant la force/résistance des synapses situées entre les cellules, peuvent traiter de l’information, ainsi qu’apprendre. Un neurone , en partageant des signaux chimiques avec ses voisins, peut se retrouver intégré à des motifs plus significatifs qui maintiennent le neurone actif et vivant. De plus, cette simple logique peut être répétée et amplifiée, puisque tous les neurones fonctionnent sur un principe similaire de connexion et de partage. A l’origine, le cerveau est des plus ouverts. Un réseau neuronal existe qui partage activité et information, et je pense que ce modèle du cerveau devrait inspirer des idées comme aider à prendre des décisions concernant les réseaux humains.

Ainsi, notre cerveau privilégie le partage par la nature même de son système, ce qui signifie de profondes implications pour les processus créatifs. A chaque fois que vous avez l’intention de créer, il vous sera plus aisé de générer des idées plus créatives si vous conservez à l’esprit la notion de processus de partage. Le processus de formation des idées n’est pas linéaire, mais ressemble plus à une avalanche d’amplifications le long d”un chemin de réflexion. Il se déplace avec le momentum d’une boule de neige créative. Si votre système cognitif interne encourage le partage, vous pouvez alors construire une boucle de rétroaction de bonheur, qui vous aidera à son tour à générer d’autant plus d’idées. C’est une sorte d’effet papillon, où la petite quantité d’énergie créative que vous aurez dépensé vous rendra, vous et le monde , plus créatifs.

Cependant, les décisions prises au quotidien par la plupart des adultes ont une créativité plutôt faible, seulement parce qu’ils ont désactivé leurs chemins de partage. Les gens aiment en général partager ce qu’ils créent, mais dans une culture qui leur enjoint de protéger leurs idées, les gens deviennent convaincus du danger du partage. Le sens du partage est alors affaibli dans leur esprit et découragé au sein de leur société. Mais si nous pouvons encourager une personne à partager, alors ses chemins de partage resteront ouverts. L’esprit de partage restera en mémoire dans son esprit, tel un instinct. Si elle rencontre au futur une situation de choix créatif, son choix sera : « Partage ».

Ces déclics de l’esprit sont trop subtils pour être perçus. Mais du fait que le cerveau,et la société, sont des systèmes connectés, l’accumulation de ces micro-attitudes, de neurone en neurone, et d’individu en individu, peut aboutir à un comportement manifeste. Il est aisé de pouvoir dire si une personne, un groupe, une entreprise, une nation sont enclins au partage ou pas. Pour ceux qui ne le sont pas , ce qu’ils défendent comme « biens culturels » et « propriété intellectuelle » ne sont que des excuses pour le statu quo gardant une communauté fermée. Une grande partie de leur « culture » sera protégée, mais le résultat net consiste en la perte directe de bien des précieuses idées, et dans la perte subséquente de tous les gains potentiels de leur partage. Cette connaissance perdue est un trou noir dans nos vies, qui pourrait bien avaler d’autres valeurs également.

La culture du non-partage nous guide à tort avec sa séparation absolue des espaces privé et public. Toute activité créatrice devient un choix binaire entre public et privé, ouvert et fermé, ce qui entraîne la naissance d’un fossé dans le spectre de la connaissance. Bien que ce fossé puisse devenir le lieu d’une réelle créativité, les craintes liées à la vie privée rendent ce fossé difficile à combler. Nous ne devrions pas nous étonner du fait que la plupart des gens, pour demeurer en sécurité, ne partagent que de façon privée et restent donc « fermés ». Elles craignent peut-être que l’Internet ne soit un risque potentiel qu’elles ne peuvent combattre seules. Paradoxalement, moins vous partagerez, moins vous en aurez le pouvoir.

Les nouvelles technologies et la montée de l’esprit de partage

Remontons en 1999, à l’époque où il n’y avait que quelques centaines de blogs de pionniers sur la planète, et sans doute pas plus de dix lecteurs à suivre chacun de ces blogs. L’histoire humaine est ainsi faite : un événement important avait lieu sans que le reste du monde ne le réalise. Le changement induit par l’arrivée de publications en ligne simples d’usage déclencha une révolution douce en moins de cinq ans. Les gens ont fait rapidement et facilement la transition depuis la simple consultation de blogs à l’ajout de commentaires et la participation à des discussions en ligne, jusqu’à réaliser soudainement qu’ils pouvaient eux-même devenir blogueurs. Plus de blogueurs a généré plus de lecteurs, et plus de lecteurs ont créé encore plus de blogs. Ce fut une révolution virale.

Les blogueurs génèrent sur Internet une information vivante et à jour, et sont connectés les uns aux autres par RSS, hyperliens, commentaires, trackbacks et citations. Le fine granularité des contenus peut alors combler les interstices entre notre expérience lacunaire, et ainsi écrire une nouvelle histoire de l’humanité. Une fois que vous êtes devenu un blogueur, une fois que vous avez accumulé autant de capital social sur un aussi petit site, il est devenu difficile d’arrêter. Cela ne peut s’expliquer par une théorie de la dépendance. C’est une impulsion de partage. C’est l’énergie des mêmes qui veut circuler de bouche à oreille et d’esprit à esprit. C’est plus que l’e-mail. C’est l’esprit de partage.

Les blogueurs souhaitent toujours garder à l’esprit le contexte social de leurs articles, en se demandant : « Qui donc va lire ceci ? » Les blogueurs sont agiles en ce qu’ils ajustent leur tonalité -et leur niveau de vie privée – pour faire avancer leurs idées sans se mettre en danger. Il s’agirait du sens du terme adéquat, plutôt que d’une auto-censure. Mais une fois que les blogs ont atteint leur masse critique, ils se sont étendus pour devenir la blogosphère. Ce dernier point a requis un système de réseaux sociaux plus délicat, ainsi qu’une architecture de partage de contenus. Mais les gens savent désormais qu’ils maîtrisent une palette plus large de relations. A la façon dont Flickr nous permet de partager des photos, mais en toute sécurité. Le respect de la vie privée de Flickr à base de cases à cocher peut paraître étrange au nouvel utilisateur, mais elle peut vous permettre de jouer avec les ressorts mentaux de l’esprit de partage. En cochant une case, nous pouvons choisir de partager , ou pas. De mes propres observations, j’ai pu constater que des photographes sur Flickr deviennent plus réceptifs à l’idée de partage, tout en conservant toute la latitude voulue dans leurs choix.

L’émergence rapide d’applications sociales qui communiquent et coopèrent, en permettant à tout un chacun de diriger des contenus d’un service à un autre, laisse les utilisateurs libres de pomper leurs mêmes au travers d’un écosystème faits de pipelines. Cette capacité d’interconnexion permet aux mêmes de se déplacer au travers de multiples réseaux sociaux, et de potentiellement atteindre une énorme audience. En conséquence de quoi, ce système de micro-pipelines rend les médias sociaux viables en tant qu’alternative aux mass-média traditionnels. Ces nouvelles technologies ressuscitent l’esprit de partage dans notre culture de la fermeture.

Pratique locale, bénéfice global

Si jamais vous avez perdu votre esprit de partage du fait d’un mauvais environnent culturel ou éducatif, il est ardu de le retrouver. Mais ce n’est pas impossible. Une pratique assidue peut mener à un rétablissement complet. Vous pouvez vous représenter l’esprit de partage comme une pratique spirituelle. Mais vous devrez pratiquer quotidiennement. Sinon, vous perdriez le pouvoir de partager. Définitivement.

Vous pourriez avoir besoin de quelques chose qui vous motive, vous empêche de revenir à un état d’esprit fermé. Voici une idée : afficher sur votre bureau une note portant la mention : « Que veux-tu partager aujourd’hui ? ». Sans blague. Par la suite, si jamais vous tombez sur quoi que ce soit d’intéressant, partagez-le ! La façon la plus simple à la fois pour commencer et continuer à partager consiste à utiliser de multiples logiciels sociaux. Le premier même que vous souhaitez partager sera peut être de peu de taille, mais vous pourrez l’amplifier par le biais des nouvelles technologies. Listez les noms de personnes de votre réseau personnel, et invitez-les à rejoindre un nouveau logiciel social. Au début, vous aurez peut-être du mal à voir les bénéfices de l’esprit de partage. Le vrai test consiste alors à voir si vous pouvez suivre le feedback que vous obtenez de ce que vous partagez. Vous réaliserez que quasiment toutes vos activités de partage vont générer des résultats positifs. Le bonheur que vous ressentirez n’est que la récompense la plus immédiate, même s’il y en a d’autres.

Le premier type de récompense que vous obtiendrez arrivera sous la forme de commentaires. Vous saurez alors que vous avez suscité de l’intérêt, de l’appréciation, de l’excitation. La seconde récompense sera l’accès à tout ce que les amis de votre réseau auront partagé. Du fait que vous les connaissez et avez confiance en eux, vous serez d’autant plus intéressés par ce qu’ils partagent. Mais le troisième type de récompense est plus important encore. Tout ce que vous partagez sera transféré, remis en circulation et publié une nouvelle fois au travers des propres réseaux de vos amis. Cet effet de cascade porte alors votre parole aux masses mises en réseau. Les progrès des logiciels de réseaux sociaux font que la vitesse de propagation devient celle d’un clic de souris. Vous devriez rencontrer l’esprit de partage. Vous êtes sur le point de devenir connu, et ce rapidement.

Ce qui nos amène au quatrième et dernier type de retour, qui fait sens non seulement pour vous, mais également pour la société toute entière. Si vous l’avez choisi, vous autorisez autrui à créer des œuvres dérivées à partir de ce que vous aurez partagé. Ce simple choix peut facilement faire boule de neige et induire de nouvelles créations le long du chemin du partage de la part de personnes situés à des endroits clés du réseau et qui sont toutes aussi passionnées que vous pour créer et partager. Après plusieurs cycles de développement, une vaste œuvre créatrice peut jaillir de votre décision de partager. Bien sûr, vous recevrez le crédit que vous avez demandé, et que vous méritez. Et c’est tout à fait logique de vouloir en être rémunéré. Mais dans tous les cas vous en obtiendrez quelque chose de tout aussi essentiel : du Bonheur.

Plus il y aura de créateurs dans l’esprit de partage, plus ce sera facile de parvenir à un état d’équlibre et d’équité pour les Médias Sociaux tissés par les gens eux-même. Les médias ne seront pas contrôlés par une seule personne, mais reposeront sur la distribution régulière du réseautage social. Ces « Partagéros » (Héros Partageurs) deviendront naturellement les leaders d’opinion de la première vague de Média Social. Cependant, les droits sur ces médias appartiendront à tous. Vous devenez à la fois producteur et consommateur dans un tel système.

L’esprit de partage protège vos droits

Bien des questions restent malgré tout en suspens à propos de l’esprit de partage comme initiative dans une nouvelle ère, la principale étant celle du copyright. Un des soucis est que n’importe quelle perte de contrôle sur des contenus protégés par copyright conduira à une baisse conséquente de la richesse individuelle, ou simplement en une perte de contrôle. Il y a 5 ans, j’aurais considéré cela comme possible. Mais les choses changent aujourd’hui. L’environnement de partage est plus protégé que vous ne pourriez penser. Bien des nouveaux logiciels sociaux vous facilitent l’établissement des conditions d’utilisation de votre chemin de partage. Tout violation de ces termes a leur égard vous sera reprochée non seulement par la loi, mais par votre communauté. Votre auditoire, qui bénéficie de ce que vous partagez, peut aussi tenir lieu de gardien de vos droits. Cela paraît idéal, même pour le détenteur de droits traditionnels.

De plus, en mesurant la portée des récompenses immédiates et à venir liées au partage, vous vous direz peut-être en fin de compte que le copyright et les « Tous droits réservés » sont bien éloignés de vous. Vous apprécierez trop les bénéfices du partage pour vous soucier de savoir qui détient une copie. Plus il y a de gens à remixer vos œuvres, plus vous aurez un retour important, voici la nouvelle formule économique.

Je voudrais souligner que le sens du partage n’équivaut pas au Communisme, ni au Socialisme. Pour ce qui est des Communistes endurcis, ils ont souvent violé la nature encline au partage des gens pour les forcer à abandonner leurs droits comme leurs biens. Le Socialisme, ce Communisme attendri, a, d’après notre exprience, également montré bien peu de respect envers ces droits. Dans ces systèmes, l’état détient toute propriété. Dans l’esprit de partage, vous pouvez conserver vos droits si vous le voulez. Mais je préfère partager. Et c’est ainsi que j’ai choisi de propager des idées, et la prosperité.

L’esprit de partage est entièrement basé sur votre propre consensus. Ce n’est pas trop difficile à comprendre, surtout depuis que des mouvements liés au copyleft comme la Free Software Foundation et les Creative Commons existent déjà depuis plusieurs années. Ces mouvements redéfinissent un spectre plus flexible de licences pour que les développeurs comme les utilisateurs finaux puissent marquer leurs travaux. Du fait que ces nouvelles licences peuvent être reconnus autant par les humains que les machines, il devient de plus en plus facile de partager à nouveau ces travaux dans les nouveaux écosystèmes en ligne.

L’esprit du Web, un cerveau social

L’esprit de partage est celui de l’ère du Web 2.0. Il a à la fois la consistance d’une Épistémologie naturalisée et celle d’une Axiologie modernisée, mais contient également les promesses du pouvoir d’une nouvelle philosophie de l’Internet. L’esprit de partage va transformer le monde en un Cerveau Social émergeant, un hybride mis en réseau de personnes et de logiciel. Nous sommes les Neurones en Réseau connecté par les synapses du Logiciel Social. Il s’agit d’une saut de l’évolution, un petit pas pour nous mais un pas de géant pour la société humaine. Avec ces nouvelles technologies « velues » fleurissant autour de nous , nous sommes en mesure de générer plus de connectivité et d’augmenter le débit de nos liens sociaux. Plus nous , neurones sociaux, serons ouverts et intensément connectés, meilleur sera l’environnement de partage, pour tous. Plus notre intelligence sera collective, plus la sagesse marquera nos actions. Les gens ont toujours trouvé de meilleures solutions par la conversation. Désormais, nous pouvons le mettre en ligne.

L’esprit de partage sera la politique exercée par la prochaine super puissance globale. Il ne s’agira pas d’un pays, mais d’un nouveau réseau humain relié par le Logiciel Social. Il s’agit peut-être d’un rêve lointain, de même que une politique publique de partage bien conçue n’est sans doute pas pour demain. Mais les idées que je soulève peuvent améliorer dès aujourd’hui les gouvernements. Nous pouvons intégrer nos systèmes démocratiques émergents comme déjà existants avec de nouvelles toponymies sociales (basées sur l’indexation sociale et collaborative d’information) pour permettre aux gens d’émettre des requêtes, de partager des données et remixer les informations pour des usages publics. L’intelligence collective d’un vaste environnement de partage équitable peut être le gardien du temple de nos droits, et le chien de garde des gouvernements. Dans le futur, la politique pourra être exercée de manière plus nuancée, par le biais de la micro-participation de la communauté de l’esprit du partage. Cette « Démocratie Émergente » se déroule plus en temps réel que lors de sessions parlementaires. Elle élargira la panoplie de nos choix, au-delà des options binaires offertes par référendums par « Oui » ou « Non ». La démocratie représentative en deviendra plus prompte à réagir et plus diligente, parce que nous nous représenterons nous-même au sein du système.

L’Esprit de Partage aura pour résultat une plus grande justice sociale. Dans un environnement de partage sain, tout signe d’injustice peut se retrouver amplifié afin d’attirer l’attention du public. Toute victime peut obtenir un support aussi effectif qu’instantané de ses pairs et des pairs de ses pairs. Les procédures de justice prendront la forme de pétitions émises par le biais de multiples canaux interconnectés. Par ces outils, chacun d’entre nous peut devenir mieux socialisé, et la société plus individualisée. Nous ne sommes plus forcés d’agir seuls. La démocratie émergente n’existera qu’une fois que l’Esprit de Partage sera devenu le bréviaire de la majorité. Puisque l’Esprit de Partage peut améliorer la communication, la collaboration comme la compréhension mutuelle, je crois qu’il a sa place au sein du système éducatif. L’Esprit de Partage peut s’appliquer à n’importe quel discours culturel, communauté de pratique (Community of Practice) ou contexte de résolution de problème. C’est également un antidote à la dépression sociale, la perte du sens du partage ne faisant que tirer notre société vers le bas. Dans les pays totalitaires actuelles ou passés, ce cycle décadent est encore plus visible. Le monde futur sera un hybride d’humain et de machine qui permettra des prises de décisions meilleures et plus rapides, n’importe où, n’importe quand. Le flot d’information entre les esprits deviendra plus flexible et plus productif. Ces vastes réseaux de partage créeront un nouvel ordre social : une Révolution de l’Esprit.

Crédit photo : Joi Ito (Creative Commons By)




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.




« Le logiciel libre peut redonner sens à nos vies » Bernard Stiegler

Le philosophe Bernard Stiegler fait l’objet d’un tag dédié sur le Framablog.

En découvrant le titre de l’article qui lui était consacré dans le journal belge Le Soir du 30 novembre dernier, on comprend bien pourquoi 🙂

Remarque : Demain 3 mars à 14h au Théâtre de La Colline aura lieu une rencontre Ars Industrialis autour du récent ouvrage L’école, le numérique et la société qui vient co-signé entre autres par Bernard Stiegler.

Bernard Stiegler - Le Soir

« Le logiciel libre peut redonner sens à nos vies »

URL d’origine du document

Quentin Noirfalisse – 30 novembre 2011 – Le Soir

Bernard Stiegler, un philosophe en lutte. Dans sa ligne de mire : un capitalisme addictif qui aspire le sens de nos existences. Son remède : une économie de la contribution.

Ce n’est plus un secret pour personne : le capitalisme est en train d’être dévoré par ses propres effets toxiques. En 2005, parmi d’autres voix peu écoutées alors, une association française, Ars Industrialis, lancée par quatre philosophes et une juriste, avait sonné le tocsin. A l’époque, leur manifeste décrivait les dangers d’un capitalisme « autodestructeur » et la soumission totale aux « impératifs de l’économie de marché et des retours sur investissements les plus rapides possibles des entreprises » et notamment celles actives dans les médias, la culture ou les télécommunications.

Aujourd’hui, l’association comporte plus de 500 membres, économistes, philosophes, informaticiens et toxicologues (car le capitalisme est devenu « addictif » et « pulsionnel ») confondus et ne semble pas s’être trompée de sonnette d’alarme. « Nous faisons partie des gens qui ont soulevé, dès 2006, l’insolvabilité chronique du système financier américain. On nous riait au nez, à l’époque », explique le philosophe Bernard Stiegler, fondateur d’Ars Industrialis et directeur de l’Institut de recherche et d’innovation du Centre Pompidou.

L’homme habite un petit moulin industriel reconverti en maison à Epineuil-le-Fleuriel, au beau milieu de la France paysanne. Entre quelques cris de paons, il vient de nous détailler le malaise qui s’empare de tous les échelons de la société.

Le règne de l’incurie

« Au 20e siècle, un nouveau modèle s’est substitué au capitalisme industriel et productiviste du 19e : le consumérisme, qu’on assimile au fordisme et qui a cimenté l’opposition entre producteur et consommateur. Le capitalisme productiviste supposait la prolétarisation des ouvriers. Ceux-ci perdaient tout leur savoir-faire qui était transféré aux machines. Avec le consumérisme, ce sont les consommateurs qui perdent leur savoir-vivre, ce qui constitue la deuxième phase de la prolétarisation. »

Chez Stiegler, le savoir-vivre, c’est ce qui permet à un homme de pouvoir développer ses propres pratiques sociales, d’avoir un style de vie particulier, une existence qui n’est pas identique à celle de son voisin. « Le problème du capitalisme, c’est qu’il détruit nos existences. Le marketing nous impose nos modes de vie et de pensée. Et cette perte de savoir-faire et de savoir-vivre devient généralisée. Beaucoup d’ingénieurs n’ont plus que des compétences et de moins en moins de connaissances. On peut donc leur faire faire n’importe quoi, c’est très pratique, mais ça peut aussi produire Fukushima. L’exemple ultime de cette prolétarisation totale, c’est Alan Greenspan, l’ancien patron de la Banque fédérale américaine, qui a dit, devant le Congrès américain qu’il ne pouvait pas anticiper la crise financière parce que le système lui avait totalement échappé. »

Que la justification de Greenspan soit sincère ou non, il n’en ressort pas moins que le système ultralibéral qu’il a sans cesse promu a engendré la domination de la spéculation à rendement immédiat sur l’investissement à long terme. Nous assistons, déplore Stiegler, au règne d’une « économie de l’incurie » dont les acteurs sont frappés d’un syndrome de « déresponsabilisation » couplé à une démotivation rampante.

Où se situe la solution ? Pour Stiegler, l’heure est venue de passer du capitalisme consumériste à un nouveau modèle industriel : l’économie de la contribution. En 1987, le philosophe organisait une exposition au Centre Pompidou, « Les mémoires du futur », où il montra que « le 21e siècle serait une bibliothèque où les individus seraient mis en réseaux, avec de nouvelles compétences données par des appareils alors inaccessibles. »

Depuis, Stiegler a chapeauté la réalisation de logiciels et réfléchit le numérique, convaincu qu’il est, en tant que nouvelle forme d’écriture, un vecteur essentiel de la pensée et de la connaissance. Il a observé de près le mouvement du logiciel libre[1]. C’est de là qu’aurait en partie germé l’idée d’une économie de la contribution. Car dans le « libre », l’argent n’est plus le moteur principal. Il cède la place à la motivation et à la passion, deux valeurs en chute libre dans le modèle consumériste. La question du sens donné aux projets par leurs participants y occupe une place centrale.

« Le logiciel libre est en train de gagner la guerre du logiciel, affirme la Commission européenne. Mais pourquoi ça marche ? Parce que c’est un modèle industriel – écrire du code, c’est éminemment industriel – déprolétarisant. Les processus de travail à l’intérieur du libre permettent de reconstituer ce que j’appelle de l’individuation, c’est-à-dire la capacité à se transformer par soi-même, à se remettre en question, à être responsable de ce que l’on fait et à échanger avec les autres. Cela fait longtemps, par exemple, que les hackers[2] s’approprient les objets techniques selon des normes qui ne sont pas celles prescrites par le marketing. »

De la même manière, une « infrastructure contributive » se développe, depuis deux décennies, sur un internet qui « repose entièrement sur la participation de ses utilisateurs ». Elle a permis, entre autres, d’accoucher de Wikipédia et de substituer à la dualité consommateur-producteur un ensemble de contributeurs actifs. Ceux-ci créent et échangent leurs savoirs sur le réseau, développant ainsi des « milieux associés » où ils peuvent façonner leurs propres jugements. Pour Stiegler, cette capacité à penser par soi-même propre au modèle contributif, est constitutive d’un meilleur fonctionnement démocratique.

Poison et remède

Pas question, toutefois, de tomber dans un angélisme pontifiant. Dans ses textes, il décrit le numérique comme un « pharmakon », terme grec qui désigne à la fois un poison et un remède, « dont il faut prendre soin ». Objectif : « lutter contre un usage de ces réseaux au service d’un hyperconsumérisme plus toxique que jamais », peut-on lire dans le Manifeste d’Ars Industrialis. Stiegler complète, en face-à-face : « Le numérique peut également aboutir à une société policière. Soit on va vers un développement pareil, soit vers l’économie de la contribution. »

D’ores et déjà, des embryons de ce modèle naissent dans d’autres domaines. « Une agriculture contributive existe déjà. L’agriculteur et ses consommateurs deviennent des partenaires, en s’appuyant notamment sur le web. » En France, cela se fait au travers des AMAP, les Associations pour le maintien d’une agriculture paysanne, où les différents acteurs se mettent d’accord sur la quantité et la diversité des denrées à produire. « Dans l’univers médical, poursuit Stiegler, les patients sont parfois intégrés à la recherche, comme ce qu’a fait le professeur Montagnier avec les malades du sida. Nous pensons également qu’il y a des domaines contributifs en énergie, où l’idée serait de produire autant que l’on reçoit, grâce aux réseaux de distribution intelligents, les smart grids. C’est bien sûr totalement contraire aux intérêts des grands groupes. »

Ainsi, l’idée d’une économie de la contribution implique que des pans entiers de nos sociétés sont à réinventer. Stiegler énumère certains besoins : « une politique éducative en relation avec le numérique, un nouveau droit du travail, un système politique déprofessionnalisé, un monde de la recherche où professionnels et amateurs sont associés. Nous plaidons beaucoup pour cette figure de l’amateur, qui aime ce qu’il fait et s’y investit complètement. » Reste, finalement, la question de l’argent. La valeur produite par les contributeurs n’est pas toujours monétisable, mais peut avoir un impact sur l’activité économique. Ainsi, les articles de Wikipédia permettent à Bernard Stiegler d’écrire beaucoup plus vite qu’avant. « La puissance publique doit être en charge d’assurer la solvabilité des contributeurs. Quelqu’un qui a un projet intéressant doit pouvoir recevoir de l’argent. Cela s’inscrit dans le sillage de thèses classiques comme le revenu minimum d’existence, à ceci près que nous pensons que ces budgets doivent être pensés comme des investissements. »

Reproduire de l’investissement, non seulement financier, mais surtout humain. Aux yeux de Stiegler, voilà l’enjeu d’une sortie de crise. Et voilà, aussi, pourquoi il appelle à la réunion des hackers, des universités, des chercheurs, des amateurs et des gens de bonne volonté (« il y en a partout ») face à un « néolibéralisme devenu l’organisation généralisée du désinvestissement ».

www.arsindustrialis.org

Interview de Bernard Stiegler

URL d’origine du document

Entretien : Quentin Noirfalisse – Vidéo: Adrien Kaempf et Maximilien Charlier
Geek PoliticsDancing Dog Productions

—> La vidéo au format webm

Notes

[1] Selon la définition consacrée, un logiciel est libre lorsque les utilisateurs ont le droit « d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel ». Quelques exemples, parmi les plus connus : Firefox, OpenOffice ou le système d’exploitation Ubuntu.

[2] Le hacker, grand artisan de l’internet tel qu’on le connaît, n’est pas un pirate informatique, mais plutôt un « détourneur », qui va utiliser des systèmes ou des objets (technologiques ou non) dans un but que leurs créateurs n’imaginaient pas.




Regarde le capitalisme tomber à l’ère de la production Open Source

« Le logiciel libre, l’innovation partagée et la production collaborative menacent le capitalisme tel que nous le connaissons. » C’est ainsi que Michel Bauwens résume son propos dans les colonnes du site d’Aljazeera.

Le menace vient du fait qu’à l’aide d’Internet nous créons beaucoup plus de valeur d’usage (qui répond à nos besoins) que de valeur d’échange (qui se monétise facilement[1]).

Menace pour les uns, opportunité et espoir pour les autres…

Nick Ares - CC by-sa

La question à 100 milliards de dollars de Facebook : Le capitalisme survivra-t-il à « l’abondance de valeur » ?

The $100bn Facebook question: Will capitalism survive ‘value abundance’?

Michel Bauwens – 29 février 2012 – Aljazeera

(Traduction Framalang/Twitter/Fhimt.com : Lambda, vg, goofy, fcharton, btreguier, HgO, Martin, bu, pvincent, bousty, pvincent, deor, cdddm, C4lin, Lamessen et 2 anonymous)

Le logiciel libre, l’innovation partagée et la production collaborative menacent le capitalisme tel que nous le connaissons.

Facebook exploite-t-il ses utilisateurs ? Et d’où vient la valeur estimée à 100 milliards de dollars de la société ?

Ce débat n’est pas nouveau. Il ressurgit régulièrement dans la blogosphère et dans les cercles universitaires, depuis que Tiziana Terranova a inventé le terme de « travail libre/gratuit » (NdT : Free Labour) pour qualifier une nouvelle forme d’exploitation capitaliste du travail non rémunéré – faisant d’abord référence aux téléspectateurs de médias audiovisuels traditionnels et maintenant à une nouvelle génération d’utilisateurs de médias sur des sites comme Facebook. Cet avis peut se résumer très succinctement par le slogan : « Si c’est gratuit, c’est que vous êtes le produit ».

Ce terme a été récemment relancé dans un article de Christopher Land et Steffen Böhm, de l’Université de l’Essex, intitulé « Ils nous exploitent ! Pourquoi nous travaillons tous pour Facebook gratuitement ». Dans ce court essai, ils affirment haut et fort que « nous pouvons placer les utilisateurs de Facebook dans la catégorie des travailleurs. Si le travail est considéré comme une activité productive, alors mettre à jour son statut, cliquer sur j’aime en faveur d’un site internet, ou devenir ami avec quelqu’un crée la marchandise de base de Facebook. »

Cette argumentation est toutefois trompeuse, car elle mélange deux types de créations de valeurs qui ont déjà été reconnues différentes par les économistes politiques au XVIIIe siècle. La différence se trouve entre la valeur d’usage et la valeur d’échange. Pendant des milliers d’années, dans le cadre de production non capitalistes, la majorité des travailleurs produisait directement de la « valeur d’usage » – soit pour subvenir à leurs propres besoins, soit sous forme de contributions pour la classe dirigeante du moment. C’est seulement avec l’arrivée du capitalisme que la majorité de la population active a commencé à produire de la « valeur d’échange » en vendant son travail aux entreprises. La différence entre ce que nous sommes payés et ce que les gens payent pour le produit que nous faisons est la « plus-value ».

Mais les utilisateurs de Facebook ne sont pas des travailleurs produisant des marchandises pour un salaire, et Facebook ne revend pas ces marchandises sur le marché pour créer de la plus-value.

Bien sûr, les utilisateurs de Facebook ne créent pas directement une valeur d’échange, mais plutôt une valeur de communication. Ce que fait Facebook, c’est permettre le partage et la collaboration autour de sa plateforme. En autorisant, encadrant et « contrôlant » cette activité, on crée des profils et des centres d’intérêt. Et ce sont ces profils et ces centres d’intérêt qui sont par la suite vendus aux publicitaires, pour un montant estimé de 3,2 milliards de dollars par an (NdT : environ 2,4 milliards d’euros), soit une recette publicitaire par utilisateur d’à peine 3,79 dollars (NdT : 2,85 euros).

En fait Facebook fait beaucoup plus que vendre de votre attention et disponibilité (NdT : temps de cerveau disponible ?). Leur connaissance de notre comportement social, individuel et collectif, a une importance stratégique indiscutable aussi bien pour les politiques que pour les sociétés commerciales. Mais cette plus-value vaut-elle réellement 100 milliards de dollars ? Cela reste un pari spéculatif. Pour le moment, il est probable que le quasi milliard d’utilisateurs de Facebook ne trouve pas les 3,79 dollars de recettes publicitaires très exploitables, d’autant plus qu’ils ne payent pas pour utiliser Facebook, et qu’ils utilisent le site volontairement. Ceci étant dit, il y a un prix à payer à ne pas utiliser Facebook : un certain isolement social par rapport à ceux qui l’utilisent.

Créer de la rareté

Il est néanmoins important de noter que Facebook n’est pas un phénomène isolé, mais fait partie d’une tendance bien plus large et lourde de nos sociétés connectées : l’augmentation exponentielle de la création de valeur utile par des publics productifs, ou « productilisateurs » (NdT « produsers »), comme Axel Bruns aime à les appeler. Il faut en effet bien comprendre que cela crée un problème de taille pour le système capitaliste, mais aussi pour les travailleurs tels qu’on les conçoit traditionnellement. Les marchés sont définis comme des moyens d’attribution de ressources rares, et le capitalisme n’est en fait pas simplement un système « d’attribution » de la rareté mais aussi un système de création de la rareté, qui ne peut accumuler du capital qu’en reproduisant et développant les conditions de cette rareté.

Sans tension entre l’offre et la demande, il ne peut y avoir de marché ni d’accumulation de capital. Or ce que font actuellement ces « productilisateurs », c’est créer des choses, avant tout immatérielles comme de la connaissance, des logiciels ou du design, aboutissant à une abondance d’information facile à reproduire et à exploiter

Cela ne peut se traduire directement en valeur marchande, car ce n’est pas du tout rare ; c’est au contraire surabondant. De plus, cette activité est exercée par des travailleurs du savoir (NdT knowledge workers) dont le nombre augmente régulièrement. Cette offre surabondante risque de précariser l’emploi des travailleurs du savoir. Il en découle un exode accru des capacités de production en dehors du système monétaire. Par le passé, à chaque fois qu’un tel exode s’est produit, les esclaves dans l’Empire Romain en déclin, ou les serfs à la fin du Moyen Age, cela a coïncidé avec l’avènement de conditions pour des changements économiques et sociétaux majeurs.

En effet, sans le support essentiel du capital, des biens et du travail, il est difficile d’imaginer la perpétuation du système capitaliste sous sa forme actuelle.

Le problème est là : la collaboration via Internet permet une création massive de la valeur d’usage qui contourne radicalement le fonctionnement normal de notre système économique. D’habitude, les gains de productivité sont en quelque sorte récompensés et permettent aux consommateurs d’en tirer un revenu et d’acheter d’autres produits.

Mais ce n’est plus le cas désormais. Les utilisateurs de Facebook et Google créent de la valeur commerciale pour ces plateformes, mais de façon très indirecte, et surtout ils ne sont pas du tout récompensés pour leur propre création de valeur. Leur création n’étant pas rémunérée sur le marché, ces créateurs de valeur n’en tirent aucun revenu. Les médias sociaux sont en train de révéler un important défaut dans notre système économique.

Nous devons relier cette économie sociale émergente, basée sur le partage de la création, avec les plus authentiques expressions de la production collaborative orientée vers le bien commun, comme en témoignent déjà l’économie de l’Open Source et de l’usage équitable des contenus libres (dont la contribution est estimée à un sixième du PIB américain). Il ne fait pas de doute sur le fait qu’un des facteurs clés du succès actuel de la Chine réside en une savante combinaison de l’Open Source, tel que l’exemple de l’économie locale à Shanzaï, avec une politique d’exclusion des brevets imposée aux investisseurs étrangers. Cela a offert à l’industrie chinoise une innovation ouverte et partagée en boostant son économie.

Même si l’économie de l’Open Source devient le mode privilégié de création des logiciels, et même si elle permet de créer des entreprises qui génèrent des chiffres d’affaires de plus d’un milliard d’euros, comme Red Hat, la conséquence globale est plutôt la déflation. Il a en effet été estimé que l’économie du libre réduisait annuellement de quelque 60 milliards de dollars le volume d’affaires dans le secteur des logiciels propriétaires.

Ainsi, l’économie de l’Open Source détruit plus de valeur dans le secteur propriétaire qu’elle n’en crée. Même si elle engendre une explosion de la valeur d’usage, sa valeur d’échange, monétaire et financière décroît.

La fabrication Open Source

Les mêmes effets surviennent quand le partage de l’innovation est utilisé dans la production physique, où il combine à la fois l’approche Open Source des moyens de distribution et l’affectation de capitaux (en utilisant des techniques comme la production communautaire, ou crowdfunding, et des plateformes dédiées comme Kickstarter).

Par exemple, la Wikispeed SGT01, une voiture qui a reçu cinq étoiles en matière de sécurité et peut atteindre 42,5 km/litre (ou 100 miles par gallon), a été developpée par une équipe de bénévoles en seulement trois mois. La voiture se vend au prix de 29.000 dollars, environ un quart du prix que pratiquerait l’indutrie automobile traditionnelle, et pour laquelle il aurait fallu cinq années de R&D ainsi que des millards de dollars.

Local Motors, une entreprise automobile ayant fait le choix du crowdsourcing et connaissant une croissance rapide, annonce qu’elle produit des automobiles 5 fois plus rapidement que Detroit, avec 100 fois moins de capitaux, et Wikispeed a réussi à mettre en place des temps de design et de production encore plus rapides. En ayant fait le pari de l’intelligence distribuée, la voiture Wikispeed a été pensée pour être modulaire, en utilisant des techniques de programmation logicielle efficaces et sophistiquées (telles que la méthode agile, Scrum et Extreme Programming), un design ouvert ainsi qu’une production effectuée par des PME locales.

Et Arduino, un simple petit circuit imprimé de prototypage electronique Open Source, fonctionnant sur le même principe que Wikispeed, provoque une baisse des prix dans son secteur et une extraordinaire effervescence dans les toujours plus nombreux fab labs (NdT : cf l’histoire d’Arduino). Si le projet de Marcin Jakubowsky Open Source Ecology rencontre le succès alors nous aurons à disposition de tous 40 différents types de machines agricoles bon marché rendant un village auto-suffisant. Dans tous les domaines où l’alternative de la production Open Source se developpe – et je prédis que cela affectera tous les domaines – il y aura un effet similaire sur les prix et les bénéfices des modèles économiques traditionnels.

« Consommation collaborative »

Une autre expression de l’économie du partage est la consommation collaborative, ce que Rachel Botsman et Lisa Gansky ont démontré dans leurs récents livres respectifs What’s Mine Is Yours: The Rise of Collaborative Consumption et The Mesh: Why The Future of Business is Sharing. Il se développe rapidement une économie du partage autour du secteur des services affectant même les places de marché et les modes de vie des gens.

Par exemple, il a été estimé qu’il y a environ 460 millions d’appartements dans le monde développé, et que chaque foyer possédait, en moyenne, une valeur de 3000 dollars disponibles en biens inutilisés. Il y aurait un intérêt économique manifeste à utiliser ces ressources qui dorment. Pour la plus grande part d’ailleurs, elles ne seront pas rentabilisées, mais échangées ou troquées gratuitement. Le modèle même du partage payant aura un effet de dépression sur la consommation de produits neufs.

De tels développements sont bénéfiques pour la planète et bons pour l’humanité, mais globalement sont-ils bons pour le capitalisme ?

Qu’arrivera-t-il à ce dernier à l’heure du développement croissant des échanges via les médias sociaux, de la production et de la consommation collaborative des logiciels et des biens ?

Qu’arrivera-t-il si notre temps est de plus en plus dédié à la production de valeur d’usage (une fraction de ce qui crée la valeur monétaire) sans bénéfices substantiels pour les producteurs de valeur d’usage ?

La crise financière commencée en 2008, loin de diminuer l’enthousiasme pour le partage et la production par les pairs, est en fait un facteur d’accélération de ces pratiques. Ce n’est plus seulement un problème pour des masses laborieuses de plus en plus précarisées, mais également pour le capitalisme lui-même, qui voit ainsi s’évaporer des opportunités d’accumulation et d’expansion.

Non seulement le monde doit faire face à une crise globale des ressources, mais il fait également face à une crise de croissance, car les créateurs de valeur ont de moins en moins de pouvoir d’achat. L’économie de la connaissance se révèle être un miroir aux alouettes, car ce qui n’est pas rare mais abondant ne peut pas soutenir la dynamique des marchés. Nous nous retrouvons donc face à un développement exponentiel de la création de valeur qui ne s’accompagne que d’un développement linéaire de la création monétaire. Si les travailleurs ont de moins en moins de revenus, qui pourra acheter les biens qui sont vendus par les sociétés ? C’est, pour simplifier, la crise de la valeur à laquelle l’Humanité doit faire face. C’est un challenge aussi important que le changement climatique ou l’accroissement des inégalités sociales.

La débâcle de 2008 était un avant-goût de cette crise. Depuis l’avènement du néolibéralisme, les salaires ont stagné, le pouvoir d’achat a été maintenu artificiellement par une diffusion irraisonnée du crédit dans la société. C’était la première phase de l’économie du savoir, au cours de laquelle seul le capital avait accès aux réseaux qu’il utilisait pour créer de gigantesques multinationales.

Avec la croissance continue de cette économie du savoir, une masse de plus en plus importante des valeurs échangées est constituée de biens intangibles et non plus physiques (NdT : cf capital immatériel). Le marché des changes néolibéral et ses excès spéculatifs peut être vu comme un moyen de tenter d’évaluer la part de valeur intangible, virtuelle, qui est ajoutée à la valeur réelle par la coopération. Il fallait que cette bulle explose.

Nous nous trouvons dans la seconde phase de l’économie du savoir, au cours de laquelle les réseaux sont en train d’être étendus à toute la société, et qui permet à tout un chacun de s’engager dans une production collaborative. Ce qui crée de nouveaux problèmes et engendre de nouveaux défis. Ajoutons à cela la stagnation des revenus, la diminution de la masse du travail salarié que cette production collaborative de valeur entraîne, et il évident que tout ceci ne peut être résolu dans le paradigme actuel. Y a-t-il dès lors une solution ?

Il y en a une mais elle sera pour le prochain cycle : elle implique, en effet, une adaptation de l’économie à la production collaborative, ouvrant par là-même les portes à un dépassement du capitalisme.

Michel Bauwens est théoricien, écrivain ainsi qu’un des fondateurs de la P2P (Peer-to-Peer) Foundation.

Notes

[1] Crédit photo : Nick Ares (Creative Commons By-Sa)




Nous les enfants du Web

Né en 1981 Piotr Czerski est un poète, auteur, musicien, informaticien et blogueur polonais.

Il a publié il y a deux semaines, dans le journal local de Poméranie Dziennik Baltycki (cf image ci-dessous), un article qui a des allures de manifeste pour la nouvelle génération.

Un article déjà traduit en anglais, en allemand et donc désormais aussi en français (nous avions commencé la traduction de notre côté quand nous sommes tombés sur celle de Paul Neitse dont nous nous sommes permis de reprendre de larges extraits).

Entre modèles économiques obsolètes et gouvernements menacés d’archaïsme, le plus important demeure comme souvent la liberté…

Il y a fort à parier que nombreux seront les manifestants actuels contre ACTA à se reconnaître dans ces quelques lignes.

My, dzieci sieci - Piotr Czerski

Nous sommes les enfants du Web

We, the Web Kids.

Piotr Czerski (translated by Marta Szreder) – 11 février 2012 – CC by-sa
(Traduction Framalang : Clochix, Goofy et Lamessen)

Il n’existe probablement pas de mot dont on a davantage usé et abusé dans le cirque médiatique que celui de « génération ». J’ai essayé un jour de compter le nombre de « générations » qui ont été claironnées au cours des dix dernières années, à commencer par la fameuse « génération perdue» ; je pense en avoir dénombré une bonne douzaine. Elles avaient toutes un point commun : elles n’existaient que sur le papier. La réalité ne nous a jamais fourni le moindre signe tangible, symbolique et inoubliable d’une expérience commune qui nous permettrait de nous distinguer des générations précédentes. Nous l’avons attendu, mais en fait le véritable séisme est passé inaperçu, venant avec la télé par câble, les téléphones mobiles et surtout, l’accès à Internet. Ce n’est qu’aujourd’hui que nous pouvons appréhender pleinement à quel point les choses ont radicalement changé depuis les quinze dernières années.

Nous, les enfants du Web; nous qui avons grandi avec Internet et sur Internet, nous sommes une génération qui correspond aux critères de ce qu’est une génération subversive. Nous n’avons pas vécu une nouvelle mode venue de la réalité, mais plutôt une métamorphose de cette réalité. Ce qui nous unit n’est pas un contexte culturel commun et limité, mais la conviction que le contexte est défini par ce que nous en faisons et qu’il dépend de notre libre choix.


En écrivant cela, je suis conscient que j’abuse du pronom « nous », dans la mesure ou ce « nous » est variable, discontinu, nébuleux. Il signifie alors « beaucoup d’entre nous » ou « la plupart d’entre nous ». Quand j’écris « nous sommes » c’est pour dire que nous le sommes souvent. Je n’emploie « nous » que pour être en mesure de parler de la majorité d’entre nous.

Premièrement

Nous avons grandi avec Internet et sur Internet. Voilà ce qui nous rend différents.

Voilà ce qui rend la différence décisive, bien qu’étonnante selon notre point de vue : nous ne « surfons » pas et Internet n’est pas un « espace » ni un « espace virtuel ». Internet n’est pas pour nous une chose extérieure à la réalité mais en fait partie intégrante : une couche invisible mais toujours présente qui s’entrelace à notre environnement physique, une sorte de seconde peau

Nous n’utilisons pas Internet, nous vivons sur Internet et à ses côtés. Nous nous sommes fait des amis et des ennemis en ligne, nous avons préparé des antisèches en ligne pour passer des examens. nous avons prévu des soirées et des sessions de travail en ligne, nous sommes tombés amoureux et avons rompu en ligne. Le Web n’est pas pour nous une technologie que nous avons dû apprendre et sur laquelle nous aurions mis la main. Le Web est un processus en constante évolution sous nos yeux ; avec nous et grâce à nous. Les technologies voient le jour puis deviennent obsolètes, des sites web sont élaborés, ils émergent, s’épanouissent puis meurent, mais le Web continue, parce que nous sommes le Web ; c’est nous, en communiquant ensemble d’une façon qui nous est devenue naturelle, plus intense et efficace que jamais auparavant dans l’histoire de l’espèce humaine.


Nous avons grandi avec le Web et nous pensons de façon différente. La faculté de trouver les informations est pour nous aussi évidente que peut l’être pour vous la faculté de trouver une gare ou un bureau de poste dans une ville inconnue. Lorsque nous voulons savoir quelque chose — depuis les premiers symptômes de la varicelle jusqu’aux raisons de la hausse de notre facture d’eau, en passant par les causes du naufrage de « l’Estonia » — nous prenons nos marques avec la confiance du conducteur d’une voiture équipée d’un système de navigation par satellite. Nous savons que nous allons trouver l’information dont nous avons besoin sur de nombreux sites, nous savons comment nous y rendre, nous savons comment évaluer leur crédibilité. Nous avons appris à accepter qu’au lieu d’une réponse unique nous en trouvions beaucoup d’autres, et dégager de celles-ci la plus réponse la plus probable, en laissant de côté celles qui ne semblent pas crédibles. Nous choisissons, nous filtrons, nous nous rappelons, et nous sommes prêts à échanger les informations apprises contre une autre, meilleure, quand elle se présente.

Pour nous, le Web est une sorte de disque dur externe. Nous n’avons pas besoin de nous souvenir des détails qui ne sont pas indispensables : dates, sommes, formules, clauses, noms de rues, définitions détaillées. Il nous suffit d’avoir un résumé, le nécessaire pour traiter l’information et la transmettre aux autres. Si nous avons besoin de détails, nous pouvons les consulter en quelques secondes. De la même façon, nous n’avons pas besoin d’être expert dans tous les domaines, car nous savons où trouver les spécialistes de ce que nous ne connaissons pas et en qui nous pouvons avoir confiance. Des gens qui vont partager leur savoir avec nous non pas pour l’argent, mais en raison de cette conviction partagée que l’information existe en mouvement, qu’elle doit être libre, que nous bénéficions tous de l’échange d’informations.

Et ce tous les jours : pendant nos études, au travail, lors de la résolution de problèmes quotidiens ou lorsque ça nous intéresse. Nous connaissons la compétition et nous aimons nous y lancer, mais notre compétition, notre désir d’être différents, sont construits sur le savoir, dans la capacité à interpréter et à traiter l’information, et non dans sa monopolisation.


Deuxièmement

Participer à la vie culturelle n’est pas quelque chose d’extraordinaire pour nous : la culture globale est le socle de notre identité, plus important pour nous définir que les traditions, les récits historiques, le statut social, les ancêtres ou même la langue que nous utilisons.

Dans l’océan d’évènements culturels que nous propose Internet, nous choisissons ceux qui nous conviennent le mieux. Nous interagissons avec eux, nous en faisons des critiques, publions ces critiques sur des sites dédiés, qui à leur tour nous suggèrent d’autres albums, films ou jeux que nous pourrions aimer. Nous regardons des films, séries ou vidéos, que nous partageons avec nos proches ou des amis du monde entier (que parfois nous ne verrons peut-être jamais dans la vie réelle). C’est pourquoi nous avons le sentiment que notre culture devient à la fois individuelle et globale. C’est la raison pour laquelle nous avons besoin d’y accéder librement (NdT : le mot polonais original, swobodnego, semble bien faire référence à la liberté et non la gratuité).


Cela ne signifie pas que nous exigions que tous les produits culturels nous soient accessibles sans frais, même si quand nous créons quelque chose, nous avons pris l’habitude de simplement et naturellement le diffuser. Nous comprenons que la créativité demande toujours des efforts et de l’investissement, et ce malgré la démocratisation des techniques de montage audio ou vidéo. Nous sommes prêts à payer, mais les énormes commissions que les distributeurs et intermédiaires demandent nous semblent de toute évidence exagérées. Pourquoi devrions-nous payer pour la distribution d’une information qui peut facilement et parfaitement être copiée sans aucune perte de qualité par rapport à l’original qui n’est en rien altéré par l’opération ? Si nous ne faisons que transmettre l’information, nous voulons que le prix en soit adapté. Nous sommes prêts à payer plus, mais nous attendons en échange une valeur ajoutée : un emballage intéressant, un gadget, une meilleure qualité, la possibilité de regarder ici et maintenant, sans devoir attendre que le fichier soit téléchargé. Nous pouvons faire preuve de reconnaissance et nous voulons récompenser le créateur (depuis que l’argent a arrêté d’être sur papier pour devenir une suite de chiffres sur un écran, le paiement est devenu un acte d’échange symbolique qui suppose un bénéfice des deux cotés), mais les objectifs de vente des grandes sociétés ne nous intéressent pas pour autant. Ce n’est pas notre faute si leur activité n’a plus de sens sous sa forme traditionnelle, et qu’au lieu d’accepter le défi en essayant de proposer quelque chose de plus que nous ne pouvons pas obtenir gratuitement, ils ont décidé de défendre un modèle obsolète.

Encore une chose. Nous ne voulons pas payer pour nos souvenirs. Les films qui nous rappellent notre enfance, la musique qui nous a accompagnés dix ans plus tôt. Dans une mémoire mise en réseau, ce ne sont plus que des souvenirs. Les rappeler, les échanger, les remixer, c’est pour nous aussi naturel que pour vous les souvenirs du film Casablanca. Nous trouvons en ligne les films que nous regardions enfants et nous les montrons à nos propres enfants, tout comme vous nous racontiez les histoires du Petit chaperon rouge ou de Boucle d’Or. Pouvez-vous vous imaginer que quelqu’un vous poursuive pour cela en justice ? Nous non plus.

Troisièmement

Nous avons l’habitude de payer automatiquement nos factures du moment que le solde de notre compte le permet. Nous savons que pour ouvrir un compte en banque ou changer d’opérateur téléphonique il suffit de remplir un formulaire en ligne et signer une autorisation livrée par la poste. Nous sommes capables d’organiser de longs voyages en Europe en à peine 2 heures. En tant qu’administrés nous sommes de plus en plus dérangés par les interfaces archaïques. Nous ne comprenons pas pourquoi, pour nos impôts par exemple, nous devrions remplir plusieurs formulaires papiers où le plus gros peut comporter plus de cent questions. Nous ne comprenons pas pourquoi nous devons justifier d’un domicile fixe (il est absurde de devoir en avoir un) avant de pouvoir entreprendre d’autres démarches, comme si les administrations ne pouvaient pas régler ces choses sans que nous devions intervenir.

Il n’y a pas trace en nous de cet humble consentement dont faisaient preuve nos parents, convaincus que les questions administratives étaient de la plus haute importance et qui considéraient les interactions avec l’État comme quelque chose à respecter obséquieusement. Ce respect ancré dans la distance entre le citoyen solitaire et la hauteur majestueuse dans laquelle réside la classe dominante, à peine visible là-haut dans les nuages, nous ne l’avons plus. Nous avons l’habitude d’entamer des discussions avec n’importe qui, qu’il s’agisse d’un journaliste, maire, professeur ou une pop star, et nous n’avons besoin d’aucun diplôme lié à notre statut social pour cela. Le succès des interactions dépend uniquement de savoir si le contenu de notre message sera considéré comme important et digne d’une réponse. Et si, par la coopération, l’esprit critique, la controverse, la défense de nos arguments, etc. nous avons l’impression que nos opinions sur de nombreux sujets sont bonnes voire meilleures, pourquoi ne pourrions-nous pas envisager de dialoguer sérieusement avec nos gouvernements ?


Nous ne ressentons pas un respect religieux pour les « institutions démocratiques » dans leur forme actuelle, nous ne croyons pas à l’irrévocabilité de leurs rôles comme tous ceux qui considèrent que les institutions démocratiques comme des objets de vénération qui se construisent d’elles-mêmes et à leur propre fin. Nous n’avons pas besoin de ces monuments. Nous avons besoin d’un système qui soit à la hauteur de nos attentes, un système qui soit transparent, flexible et en état de marche. Et nous avons appris que le changement est possible, que tout système difficile à manier peut être remplacé par un plus efficace, qui soit mieux adapté à nos besoins en offrant plus d’opportunités.

Ce qui nous importe le plus, c’est la liberté. La liberté de s’exprimer, d’accéder à l’information et à la culture. Nous croyons qu’Internet est devenu ce qu’il est grâce à cette liberté et nous pensons que c’est notre devoir de défendre cette liberté. Nous devons cela aux générations futures comme nous leur devons de protéger l’environnement.


Peut-être que nous ne lui avons pas encore donné de nom, peut-être que nous n’en sommes pas encore complètement conscient, mais ce que nous voulons est une vraie et réelle démocratie. Une démocratie qui n’a peut-être jamais été rêvée par vos journalistes.


My, dzieci sieci
Piotr Czerski (piotrATczerski.art.pl)




Pas de musique classique libre ? Louons les services d’un orchestre symphonique !

Alors même que la plupart des compositeurs sont depuis longtemps dans le domaine public, il est extrêmement rare, voire impossible, de pouvoir écouter et partager librement de la musique classique de qualité, à fortiori lorsque le répertoire exige plus de quatre-vingts musiciens. Parce que l’interprétation elle est soumise au classique et restrictif droit d’auteur. Idem pour l’enregistrement qui entre dans le cadre des droits voisins.

Qu’à cela ne tienne, se dit le site Musopen. Ouvrons un projet Kickstarter et invitons le internautes à financer collectivement la location d’un orchestre symphonique jouant pour nous des morceaux qui iront eux directement dans le domaine public !

Ils souhaitaient atteindre la somme de dix mille dollars et ils en ont eu six fois plus, révélant ainsi une forte demande. Il y eut alors un compréhensible temps de latence nécessaire à trouver un orchestre symphonique[1] disponible et adhérant à cette idée saugrenue. Mais nous y sommes.

À l’ère d’Internet et de la bonne volonté, c’est aussi simple que ça 🙂

Nous attendons avec impatience le résultat sans craindre le moins du monde la foudre Hadopi.

MITO Settembre Musica - CC by

MusOpen.org va diriger l’orchestre symphonique de Prague en janvier

MusOpen.org is Commissioning the Prague Symphony Orchestra this January

Terry Hancock – 4 janvier 2012 – FreeSoftwareMagazine
(Traduction Framalang : Clochix, Goofy et Don Rico)

2012 sera semble-t-il une grande année pour la culture libre. Et la nouvelle qui m’enthousiasme le plus, c’est que les enregistrements de symphonies prévus par MusOpen vont avoir lieu au mois de janvier. En septembre 2010, cette organisation pour la culture libre a réuni plus de 68 000$ (plusieurs fois leur objectif de 11 000$) via une campagne sur le site Kickstarter, avec l’intention de diriger un « orchestre de renommée internationale » pour interpréter les symphonies de Beethoven, Brahms, Sibelius et Tchaïkovsky.

Rien de surprenant à ce que la mise en place d’un tel projet ait pris beaucoup de temps – ses initateurs ont battu la campagne pour trouver un orchestre disponible et désireux de se charger de ce contrat, recherche effectuée avec l’aide soutenue des utilisateurs du site MusOpen, et au bout du compte, ils ont obtenu la collaboration de l’orchestre symphonique de Prague pour une session de plusieurs jours en janvier 2012.

Je trouve que c’est un excellent début d’année, de très bon augure pour les projets de culture libre !

Le site MusOpen constitue une ressource fantastique pour la culture musicale libre, et c’est une source de référence pour les projets de logiciels libres qui ont besoin d’intégrer des airs de musique classique. Non seulement les enregistrements sont stockés et indexés, mais on trouve également sur le site toute une bibliothèque de partitions libres en PDF que l’on peut utiliser pour divers projets, par exemple pour créer des fichiers MIDI qui illustreront des jeux. Ce site fait partie de ceux que je fréquente le plus lorsque je recherche de la musique sous licence libre destinée à mes projets.

Notes

[1] Crédit photo : MITO Settembre Musica (Creative Commons By)