Geektionnerd : RMLL 2012, c’est déjà demain !

Et n’hésitez pas à venir nous passer le bonjour sur notre stand Framasoft (mais pas trop tôt le matin quand même, surtout au lendemain du Repas du libre !).

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Mon année open source ou le projet un peu fou d’un néo-zélandais berlinois

Vis ma vie en terre inconnue de l’open source…

À partir du premier août prochain un jeune réalisateur néo-zélandais vivant à Berlin se propose de passer « une année open source ».

Mais attention, il ne s’agit pas seulement de migrer vers GNU/Linux et surfer avec Firefox, il veut essayer de tout faire avec du Libre, son approche et sa philosophie !

Il a essayé d’expliquer le concept à sa maman, en prenant l’exemple d’Open Cola, pour conclure qu’il n’irait pas dans un restaurant qui ne lui fournirait pas les recettes des plats ! (dans le cas contraire il se contentera de ses propres sandwiches)

Évidemment, il n’arrivera pas à vivre son quotidien 100% open source, mais il explique qu’il sera intéressant de comprendre pourquoi tel ou tel domaine ne fonctionne pas, quitte à se demander si on ne pourrait quand même pas y mettre plus de transparence et d’ouverture. L’idée étant également d’apprendre à faire le maximum de choses par soi-même et de dresser un portrait vivant de la scène open source berlinoise, sûrement l’une des plus avancées en Europe aujourd’hui.

Une démarche expérimentale un peu naïve et très déjantée, à la limite du happening artistique, qui sera filmée au jour le jour et qui demande votre soutien sur un site de crowdfunding (cf aussi cette vidéo).

Nous en avons traduit le communiqué de presse ci-dessous.

Year Open Source

Une année Open Source

A year of Open Source

Sam Muirhead – 4 juillet 2012 – CP
(Traduction Framalang : Evpok, Antoine et Goofy)

Bye-bye Apple, ciao Häagen-Dazs: Un cinéaste se lance dans une année entièrement Open Source

Le premier Août, le cinéaste berlinois Sam Muirhead abandonne tous ses biens sous copyright et ne garde de ses logiciels, équipements et services que ceux qui sont Open Source et ce pendant un an, servant ainsi de cobaye à sa propre série documentaire en ligne.

Sam Muirhead a pour objectif d’attirer l’attention sur les produits et les principes de l’open source et de susciter l’intérêt du grand public.

« Je n’ai aucune compétence particulière pour les nouvelles technologies, je veux donc montrer aux gens que l’Open Source n’est pas que pour les hackers — c’est un concept qui s’applique à tous les aspects de la vie ».

Internet à profondément changé le monde du cinéma en créant de nouveaux moyens de financement, de distribution et de production. En se servant de ces nouvelles méthodes, Muirhead explore une autre grande idée issue d’Internet : l’Open Source et son effet sur le monde réel.

Le concept d’Open Source vient du monde du logiciel : le navigateur Firefox, le système d’exploitation Linux et la plus grande part de la structure d’Internet sont développés collaborativement et distribués sous des licences Open Source. Muirhead s’intéresse plus généralement à la philosophie de l’Open Source : en tant qu’alternative au copyright, elle donne accès aux plans et aux méthodes utilisées pour réaliser un produit. Cela signifie que les utilisateurs peuvent l’adapter selon leurs propres besoins et le redistribuer. Cette idée s’est déjà étendue à d’autres domaines que le logiciel, de Wikipédia à la robotique en passant par la conception de tracteurs.

La vitesse d’évolution des technologies signifie qu’un long-métrage traditionnel sur l’Open Source est impossible : au moment où il serait distribué il serait déjà obsolète.

Muirhead va suivre la philosophie du développement logiciel « distribuer tôt, mettre à jour souvent » (release early, release often) pour la production de son documentaire. Avec de nouvelles vidéos et de nouveaux projets publiés chaque semaine, le résultat sera un portrait évolutif de l’Open Source et permettra à la communauté de participer au projet à mesure qu’il avancera.

Le projet est financé par la communauté Internet, avec une campagne de crowdfounding sur le site IndieGoGo visant les 20.000$ en 37 jours. Muirhead compte faire ses propres jeans, chaussures, brosses à dents et meubles Open Source (et en distribuer les plans) ; il utilisera des méthodes pédagogiques Open Source pour apprendre le turc, évitera la nourriture issue de semences brevetées et abandonnera les logiciels et produits Apple.

Mais son idée est aussi de s’amuser avec ce projet. Passer certaines choses, comme la contraception ou les soins dentaires, en Open Source serait certainement aussi risible que dangereux.

Si on lui demande ce qu’il espère réaliser en ne se servant que de solutions Open Source pour tous les aspects de sa vie, Muirhead répond « L’Open Source est une façon fascinante de collaborer, mais la plupart des gens pensent que c’est réservé aux logiciels. En appliquant le concept au monde réel et en l’adaptant à la vie de tous les jours, j’espère que les gens se rendront compte que l’Open source peut marcher aussi pour leur propre vie quotidienne ».

Il pense que c’est aussi une approche de journaliste : « Je veux montrer les problèmes que posent les systèmes actuels de copyright et de brevets. Toutes les semaines, Apple, Google et Samsung se lancent à la figure des procès à plusieurs millons de dollars, alors que leurs objectifs sont les mêmes. Au contraire, dans la communauté Open Source il y a un principe qui dit qu’il vaut mieux se tenir sur les épaules de ses concurrents que sur leurs orteils ». Ce projet permettra de montrer les réussites des entreprises et des individus travaillant en Open Source et d’étudier leurs business models.

Year Open Source

-> Pour soutenir le projet et en savoir plus…




L’esprit de partage, une révolution de l’esprit #Sharism

Issu du verbe anglais to share qui veut dire partager, le « Sharism » est reconnu par Wikipédia.

Cela ne signifie pas que le concept, exposé ici par le chinois Isaac Mao, soit nécessairement valide, d’autant que le style verse parfois un peu trop dans le new age, mais il méritait selon nous un nouveau petit coup de projecteur.

Cet article a été rédigé en décembre 2008 (avant, par exemple, le réel avènement des réseaux sociaux). Il a été traduit initialement par Olivier Heinry sur son site.

Joi Ito - CC by

L’esprit de partage, une révolution de l’esprit

Sharism: A Mind Revolution

Isaac Mao – Décembre 2008 – Creative Commons By
(Traduction : Olivier Heinry)

Alors que le peuple du World Wide Web communique plus pleinement et plus librement par le biais des médias sociaux et que l’on assiste à une explosion des contenus 2.0, la dynamique interne d’une telle explosion créative se doit d’être étudiée de plus près. Quelle est la motivation de ceux qui rejoignent ce mouvement et quel futur vont-ils engendrer ? L’un des aspects clés consiste en la surabondance de respect de la part de la communauté et de capital social accumulés par ceux qui partagent.

La motivation clé des Médias Sociaux et l’esprit animant le Web 2.0 forment un changement de paradigme nommé Esprit de Partage. L’esprit de partage suggère une réorientation des valeurs individuelles. On le voit à l’œuvre dans les contenus générés par les utilisateurs. C’est l’allégeance des Creative Commons. Il fait partie des initiatives culturelles futuro-centriques. L’esprit de partage est également un exercice mental que tout un chacun peut essayer, une attitude socio-psychologique destinée à transformer un univers étendu et isolé en un Cerveau Social hyper-intelligent.

La doctrine du neurone

Le partagisme est encodé dans le Génome Humain. Bien qu’éclipsés par les nombreux pragmatismes du quotidien, la théorie du l’Esprit de Partage trouve sa source dans les neurosciences et l’étude du modèle opératoire du cerveau humain. Bien qu’il nous soit impossible de décrire le fonctionnement du cerveau dans son ensemble, nous disposons d’un modèle du mécanisme de fonctionnement du système nerveux et de ses neurones. Un neurone n’est pas qu’une simple cellule de l’organisme, mais un processeur biologique très puissant et excitable électriquement. Des groupes de neurones forment des réseaux intensément interconnectés, qui, en modifiant la force/résistance des synapses situées entre les cellules, peuvent traiter de l’information, ainsi qu’apprendre. Un neurone , en partageant des signaux chimiques avec ses voisins, peut se retrouver intégré à des motifs plus significatifs qui maintiennent le neurone actif et vivant. De plus, cette simple logique peut être répétée et amplifiée, puisque tous les neurones fonctionnent sur un principe similaire de connexion et de partage. A l’origine, le cerveau est des plus ouverts. Un réseau neuronal existe qui partage activité et information, et je pense que ce modèle du cerveau devrait inspirer des idées comme aider à prendre des décisions concernant les réseaux humains.

Ainsi, notre cerveau privilégie le partage par la nature même de son système, ce qui signifie de profondes implications pour les processus créatifs. A chaque fois que vous avez l’intention de créer, il vous sera plus aisé de générer des idées plus créatives si vous conservez à l’esprit la notion de processus de partage. Le processus de formation des idées n’est pas linéaire, mais ressemble plus à une avalanche d’amplifications le long d”un chemin de réflexion. Il se déplace avec le momentum d’une boule de neige créative. Si votre système cognitif interne encourage le partage, vous pouvez alors construire une boucle de rétroaction de bonheur, qui vous aidera à son tour à générer d’autant plus d’idées. C’est une sorte d’effet papillon, où la petite quantité d’énergie créative que vous aurez dépensé vous rendra, vous et le monde , plus créatifs.

Cependant, les décisions prises au quotidien par la plupart des adultes ont une créativité plutôt faible, seulement parce qu’ils ont désactivé leurs chemins de partage. Les gens aiment en général partager ce qu’ils créent, mais dans une culture qui leur enjoint de protéger leurs idées, les gens deviennent convaincus du danger du partage. Le sens du partage est alors affaibli dans leur esprit et découragé au sein de leur société. Mais si nous pouvons encourager une personne à partager, alors ses chemins de partage resteront ouverts. L’esprit de partage restera en mémoire dans son esprit, tel un instinct. Si elle rencontre au futur une situation de choix créatif, son choix sera : « Partage ».

Ces déclics de l’esprit sont trop subtils pour être perçus. Mais du fait que le cerveau,et la société, sont des systèmes connectés, l’accumulation de ces micro-attitudes, de neurone en neurone, et d’individu en individu, peut aboutir à un comportement manifeste. Il est aisé de pouvoir dire si une personne, un groupe, une entreprise, une nation sont enclins au partage ou pas. Pour ceux qui ne le sont pas , ce qu’ils défendent comme « biens culturels » et « propriété intellectuelle » ne sont que des excuses pour le statu quo gardant une communauté fermée. Une grande partie de leur « culture » sera protégée, mais le résultat net consiste en la perte directe de bien des précieuses idées, et dans la perte subséquente de tous les gains potentiels de leur partage. Cette connaissance perdue est un trou noir dans nos vies, qui pourrait bien avaler d’autres valeurs également.

La culture du non-partage nous guide à tort avec sa séparation absolue des espaces privé et public. Toute activité créatrice devient un choix binaire entre public et privé, ouvert et fermé, ce qui entraîne la naissance d’un fossé dans le spectre de la connaissance. Bien que ce fossé puisse devenir le lieu d’une réelle créativité, les craintes liées à la vie privée rendent ce fossé difficile à combler. Nous ne devrions pas nous étonner du fait que la plupart des gens, pour demeurer en sécurité, ne partagent que de façon privée et restent donc « fermés ». Elles craignent peut-être que l’Internet ne soit un risque potentiel qu’elles ne peuvent combattre seules. Paradoxalement, moins vous partagerez, moins vous en aurez le pouvoir.

Les nouvelles technologies et la montée de l’esprit de partage

Remontons en 1999, à l’époque où il n’y avait que quelques centaines de blogs de pionniers sur la planète, et sans doute pas plus de dix lecteurs à suivre chacun de ces blogs. L’histoire humaine est ainsi faite : un événement important avait lieu sans que le reste du monde ne le réalise. Le changement induit par l’arrivée de publications en ligne simples d’usage déclencha une révolution douce en moins de cinq ans. Les gens ont fait rapidement et facilement la transition depuis la simple consultation de blogs à l’ajout de commentaires et la participation à des discussions en ligne, jusqu’à réaliser soudainement qu’ils pouvaient eux-même devenir blogueurs. Plus de blogueurs a généré plus de lecteurs, et plus de lecteurs ont créé encore plus de blogs. Ce fut une révolution virale.

Les blogueurs génèrent sur Internet une information vivante et à jour, et sont connectés les uns aux autres par RSS, hyperliens, commentaires, trackbacks et citations. Le fine granularité des contenus peut alors combler les interstices entre notre expérience lacunaire, et ainsi écrire une nouvelle histoire de l’humanité. Une fois que vous êtes devenu un blogueur, une fois que vous avez accumulé autant de capital social sur un aussi petit site, il est devenu difficile d’arrêter. Cela ne peut s’expliquer par une théorie de la dépendance. C’est une impulsion de partage. C’est l’énergie des mêmes qui veut circuler de bouche à oreille et d’esprit à esprit. C’est plus que l’e-mail. C’est l’esprit de partage.

Les blogueurs souhaitent toujours garder à l’esprit le contexte social de leurs articles, en se demandant : « Qui donc va lire ceci ? » Les blogueurs sont agiles en ce qu’ils ajustent leur tonalité -et leur niveau de vie privée – pour faire avancer leurs idées sans se mettre en danger. Il s’agirait du sens du terme adéquat, plutôt que d’une auto-censure. Mais une fois que les blogs ont atteint leur masse critique, ils se sont étendus pour devenir la blogosphère. Ce dernier point a requis un système de réseaux sociaux plus délicat, ainsi qu’une architecture de partage de contenus. Mais les gens savent désormais qu’ils maîtrisent une palette plus large de relations. A la façon dont Flickr nous permet de partager des photos, mais en toute sécurité. Le respect de la vie privée de Flickr à base de cases à cocher peut paraître étrange au nouvel utilisateur, mais elle peut vous permettre de jouer avec les ressorts mentaux de l’esprit de partage. En cochant une case, nous pouvons choisir de partager , ou pas. De mes propres observations, j’ai pu constater que des photographes sur Flickr deviennent plus réceptifs à l’idée de partage, tout en conservant toute la latitude voulue dans leurs choix.

L’émergence rapide d’applications sociales qui communiquent et coopèrent, en permettant à tout un chacun de diriger des contenus d’un service à un autre, laisse les utilisateurs libres de pomper leurs mêmes au travers d’un écosystème faits de pipelines. Cette capacité d’interconnexion permet aux mêmes de se déplacer au travers de multiples réseaux sociaux, et de potentiellement atteindre une énorme audience. En conséquence de quoi, ce système de micro-pipelines rend les médias sociaux viables en tant qu’alternative aux mass-média traditionnels. Ces nouvelles technologies ressuscitent l’esprit de partage dans notre culture de la fermeture.

Pratique locale, bénéfice global

Si jamais vous avez perdu votre esprit de partage du fait d’un mauvais environnent culturel ou éducatif, il est ardu de le retrouver. Mais ce n’est pas impossible. Une pratique assidue peut mener à un rétablissement complet. Vous pouvez vous représenter l’esprit de partage comme une pratique spirituelle. Mais vous devrez pratiquer quotidiennement. Sinon, vous perdriez le pouvoir de partager. Définitivement.

Vous pourriez avoir besoin de quelques chose qui vous motive, vous empêche de revenir à un état d’esprit fermé. Voici une idée : afficher sur votre bureau une note portant la mention : « Que veux-tu partager aujourd’hui ? ». Sans blague. Par la suite, si jamais vous tombez sur quoi que ce soit d’intéressant, partagez-le ! La façon la plus simple à la fois pour commencer et continuer à partager consiste à utiliser de multiples logiciels sociaux. Le premier même que vous souhaitez partager sera peut être de peu de taille, mais vous pourrez l’amplifier par le biais des nouvelles technologies. Listez les noms de personnes de votre réseau personnel, et invitez-les à rejoindre un nouveau logiciel social. Au début, vous aurez peut-être du mal à voir les bénéfices de l’esprit de partage. Le vrai test consiste alors à voir si vous pouvez suivre le feedback que vous obtenez de ce que vous partagez. Vous réaliserez que quasiment toutes vos activités de partage vont générer des résultats positifs. Le bonheur que vous ressentirez n’est que la récompense la plus immédiate, même s’il y en a d’autres.

Le premier type de récompense que vous obtiendrez arrivera sous la forme de commentaires. Vous saurez alors que vous avez suscité de l’intérêt, de l’appréciation, de l’excitation. La seconde récompense sera l’accès à tout ce que les amis de votre réseau auront partagé. Du fait que vous les connaissez et avez confiance en eux, vous serez d’autant plus intéressés par ce qu’ils partagent. Mais le troisième type de récompense est plus important encore. Tout ce que vous partagez sera transféré, remis en circulation et publié une nouvelle fois au travers des propres réseaux de vos amis. Cet effet de cascade porte alors votre parole aux masses mises en réseau. Les progrès des logiciels de réseaux sociaux font que la vitesse de propagation devient celle d’un clic de souris. Vous devriez rencontrer l’esprit de partage. Vous êtes sur le point de devenir connu, et ce rapidement.

Ce qui nos amène au quatrième et dernier type de retour, qui fait sens non seulement pour vous, mais également pour la société toute entière. Si vous l’avez choisi, vous autorisez autrui à créer des œuvres dérivées à partir de ce que vous aurez partagé. Ce simple choix peut facilement faire boule de neige et induire de nouvelles créations le long du chemin du partage de la part de personnes situés à des endroits clés du réseau et qui sont toutes aussi passionnées que vous pour créer et partager. Après plusieurs cycles de développement, une vaste œuvre créatrice peut jaillir de votre décision de partager. Bien sûr, vous recevrez le crédit que vous avez demandé, et que vous méritez. Et c’est tout à fait logique de vouloir en être rémunéré. Mais dans tous les cas vous en obtiendrez quelque chose de tout aussi essentiel : du Bonheur.

Plus il y aura de créateurs dans l’esprit de partage, plus ce sera facile de parvenir à un état d’équlibre et d’équité pour les Médias Sociaux tissés par les gens eux-même. Les médias ne seront pas contrôlés par une seule personne, mais reposeront sur la distribution régulière du réseautage social. Ces « Partagéros » (Héros Partageurs) deviendront naturellement les leaders d’opinion de la première vague de Média Social. Cependant, les droits sur ces médias appartiendront à tous. Vous devenez à la fois producteur et consommateur dans un tel système.

L’esprit de partage protège vos droits

Bien des questions restent malgré tout en suspens à propos de l’esprit de partage comme initiative dans une nouvelle ère, la principale étant celle du copyright. Un des soucis est que n’importe quelle perte de contrôle sur des contenus protégés par copyright conduira à une baisse conséquente de la richesse individuelle, ou simplement en une perte de contrôle. Il y a 5 ans, j’aurais considéré cela comme possible. Mais les choses changent aujourd’hui. L’environnement de partage est plus protégé que vous ne pourriez penser. Bien des nouveaux logiciels sociaux vous facilitent l’établissement des conditions d’utilisation de votre chemin de partage. Tout violation de ces termes a leur égard vous sera reprochée non seulement par la loi, mais par votre communauté. Votre auditoire, qui bénéficie de ce que vous partagez, peut aussi tenir lieu de gardien de vos droits. Cela paraît idéal, même pour le détenteur de droits traditionnels.

De plus, en mesurant la portée des récompenses immédiates et à venir liées au partage, vous vous direz peut-être en fin de compte que le copyright et les « Tous droits réservés » sont bien éloignés de vous. Vous apprécierez trop les bénéfices du partage pour vous soucier de savoir qui détient une copie. Plus il y a de gens à remixer vos œuvres, plus vous aurez un retour important, voici la nouvelle formule économique.

Je voudrais souligner que le sens du partage n’équivaut pas au Communisme, ni au Socialisme. Pour ce qui est des Communistes endurcis, ils ont souvent violé la nature encline au partage des gens pour les forcer à abandonner leurs droits comme leurs biens. Le Socialisme, ce Communisme attendri, a, d’après notre exprience, également montré bien peu de respect envers ces droits. Dans ces systèmes, l’état détient toute propriété. Dans l’esprit de partage, vous pouvez conserver vos droits si vous le voulez. Mais je préfère partager. Et c’est ainsi que j’ai choisi de propager des idées, et la prosperité.

L’esprit de partage est entièrement basé sur votre propre consensus. Ce n’est pas trop difficile à comprendre, surtout depuis que des mouvements liés au copyleft comme la Free Software Foundation et les Creative Commons existent déjà depuis plusieurs années. Ces mouvements redéfinissent un spectre plus flexible de licences pour que les développeurs comme les utilisateurs finaux puissent marquer leurs travaux. Du fait que ces nouvelles licences peuvent être reconnus autant par les humains que les machines, il devient de plus en plus facile de partager à nouveau ces travaux dans les nouveaux écosystèmes en ligne.

L’esprit du Web, un cerveau social

L’esprit de partage est celui de l’ère du Web 2.0. Il a à la fois la consistance d’une Épistémologie naturalisée et celle d’une Axiologie modernisée, mais contient également les promesses du pouvoir d’une nouvelle philosophie de l’Internet. L’esprit de partage va transformer le monde en un Cerveau Social émergeant, un hybride mis en réseau de personnes et de logiciel. Nous sommes les Neurones en Réseau connecté par les synapses du Logiciel Social. Il s’agit d’une saut de l’évolution, un petit pas pour nous mais un pas de géant pour la société humaine. Avec ces nouvelles technologies « velues » fleurissant autour de nous , nous sommes en mesure de générer plus de connectivité et d’augmenter le débit de nos liens sociaux. Plus nous , neurones sociaux, serons ouverts et intensément connectés, meilleur sera l’environnement de partage, pour tous. Plus notre intelligence sera collective, plus la sagesse marquera nos actions. Les gens ont toujours trouvé de meilleures solutions par la conversation. Désormais, nous pouvons le mettre en ligne.

L’esprit de partage sera la politique exercée par la prochaine super puissance globale. Il ne s’agira pas d’un pays, mais d’un nouveau réseau humain relié par le Logiciel Social. Il s’agit peut-être d’un rêve lointain, de même que une politique publique de partage bien conçue n’est sans doute pas pour demain. Mais les idées que je soulève peuvent améliorer dès aujourd’hui les gouvernements. Nous pouvons intégrer nos systèmes démocratiques émergents comme déjà existants avec de nouvelles toponymies sociales (basées sur l’indexation sociale et collaborative d’information) pour permettre aux gens d’émettre des requêtes, de partager des données et remixer les informations pour des usages publics. L’intelligence collective d’un vaste environnement de partage équitable peut être le gardien du temple de nos droits, et le chien de garde des gouvernements. Dans le futur, la politique pourra être exercée de manière plus nuancée, par le biais de la micro-participation de la communauté de l’esprit du partage. Cette « Démocratie Émergente » se déroule plus en temps réel que lors de sessions parlementaires. Elle élargira la panoplie de nos choix, au-delà des options binaires offertes par référendums par « Oui » ou « Non ». La démocratie représentative en deviendra plus prompte à réagir et plus diligente, parce que nous nous représenterons nous-même au sein du système.

L’Esprit de Partage aura pour résultat une plus grande justice sociale. Dans un environnement de partage sain, tout signe d’injustice peut se retrouver amplifié afin d’attirer l’attention du public. Toute victime peut obtenir un support aussi effectif qu’instantané de ses pairs et des pairs de ses pairs. Les procédures de justice prendront la forme de pétitions émises par le biais de multiples canaux interconnectés. Par ces outils, chacun d’entre nous peut devenir mieux socialisé, et la société plus individualisée. Nous ne sommes plus forcés d’agir seuls. La démocratie émergente n’existera qu’une fois que l’Esprit de Partage sera devenu le bréviaire de la majorité. Puisque l’Esprit de Partage peut améliorer la communication, la collaboration comme la compréhension mutuelle, je crois qu’il a sa place au sein du système éducatif. L’Esprit de Partage peut s’appliquer à n’importe quel discours culturel, communauté de pratique (Community of Practice) ou contexte de résolution de problème. C’est également un antidote à la dépression sociale, la perte du sens du partage ne faisant que tirer notre société vers le bas. Dans les pays totalitaires actuelles ou passés, ce cycle décadent est encore plus visible. Le monde futur sera un hybride d’humain et de machine qui permettra des prises de décisions meilleures et plus rapides, n’importe où, n’importe quand. Le flot d’information entre les esprits deviendra plus flexible et plus productif. Ces vastes réseaux de partage créeront un nouvel ordre social : une Révolution de l’Esprit.

Crédit photo : Joi Ito (Creative Commons By)




Geektionnerd : Goodbye Minitel, the French Wide Web

« J’entends : Ah ! Nous sommes en retard, mais ce n’est pas vrai ! Nous avons en France le Minitel. La boulangère d’Aubervilliers sait parfaitement interroger sa banque par Minitel, alors que la boulangère de New York en est incapable. » Jacques Chirac, 10 mars 1997 sur France 2.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Madame, Monsieur le Député, pourquoi il est important de faire le choix du Libre

Signal fort et beau symbole, en 2007 il avait été décidé de passer les postes des députés sous GNU/Linux Ubuntu et OpenOffice.org (cf ces témoignages). Arrive aujourd’hui le temps du renouvellement et les députés, fraîchement élu(e)s ou réélu(e)s, ont le choix du choix, avec Windows ou Ubuntu et Microsoft Office ou LibreOffice.

François Revol est un acteur bien connu de la communauté francophone du logiciel libre. Il fait ici acte de citoyenneté en prenant le temps d’adresser une lettre détaillée et personnalisée à son député sur ce sujet à ses yeux bien plus important qu’il n’y paraît. Nous vous invitons à vous en inspirer pour en faire de même, si vous partagez ses arguments et sa préoccupation.

Nous ne souhaitons pas qu’une assemblée nationale plus rose devienne moins libre.

Takato Marui - CC by-sa

Objet : Système d’exploitation de votre ordinateur

Madame, Monsieur le Député,

Si ce n’est déjà fait, et que personne n’a choisi à votre place, vous allez devoir prendre une décision très importante, que vous pourrez considérer comme anodine mais qui pourtant est cruciale.

Pour cette législature, conformément à la demande de la questure, vous avez le choix du système d’exploitation (SE) qui sera utilisé sur votre ordinateur. La législature précédente avait permis un énorme progrès par l’installation de GNU/Linux[1] sur toutes les machines des députés auparavant sous Windows, mettant ainsi à leur disposition un système plus éthique, plus économique, plus flexible, et participant à restaurer une certaine indépendance européenne dans le secteur du logiciel. Il semble au contraire pour cette législature, pour certaines raisons obscures et surtout exprimées bien tardivement, qu’il ait été décidé de vous laisser le choix. L’histoire dira, et surtout votre choix, si c’est un recul ou un progrès, et si vous avez usé sagement de ce qui pour beaucoup d’entre nous est encore un luxe, puisque précieux mais trop peu répandu.

En effet, malgré l’interdiction par la loi de la vente liée[2], le choix du système d’exploitation lors de l’achat d’un ordinateur par un particulier relève encore du plus rare des luxes, réservé aux seules entreprises. Si l’on en croit les revendeurs et fabricants, le particulier est simplement trop stupide pour faire un choix éclairé. L’excuse d’une complexité accrue de production est également caduque, les offres existantes pour les entreprises montrant la viabilité de proposition du choix. En fait il s’agit surtout de préserver des monopoles établis, ceux d’une entreprise américaine bien connue pour avoir été sanctionnée par la Commission européenne pour cette même raison.

Pourtant le choix du système d’exploitation est important à plusieurs titres, même en laissant l’éthique de côté, ayant même des conséquences sur la relocalisation d’emplois.

Ainsi par exemple le choix d’un SE libre permet, en plus de répondre aux questions d’indépendance, d’interopérabilité, et d’adaptabilité, de générer une activité de développement logiciel locale nécessaire à une adaptation au plus près des besoins, adaptation impossible avec du logiciel propriétaire qui dépend entièrement du bon vouloir de l’éditeur. En effet, le logiciel libre, par essence, est distribué avec son code source et la liberté de modification, permettant ainsi la création et la mise en concurrence d’expertises non subordonnées à l’éditeur original. La mutualisation des coûts de production des logiciels libres participe aussi de la création de biens communs. Comme nombre de sujets connexes liés au numérique, le logiciel libre transcende donc le bipartisme.

Certains d’entre vous ont d’ailleurs signé le Pacte Logiciel Libre lors de la campagne, d’autres lors de précédentes législatures ont voté pour ou contre certains projets de loi dommageables au logiciel libre, comme DADVSI ou HADOPI, créant ainsi du tracas y compris à des universitaires français, comme les auteurs du logiciel de lecture vidéo VLC, obligés de demander à la HADOPI comment contourner les DRM[3] du BluRay. La HADOPI n’a d’ailleurs pas été d’une grande utilité pour résoudre la violation de la licence de FFmpeg/LibAV, logiciel libre auquel j’ai modestement contribué, commise par un sous-traitant d’Orange4 pendant plus d’un an. Il s’agit pourtant ici également de protection des auteurs. Il est intéressant de plus de noter qu’Orange comptait parmi les fiers sponsors officiels de l’inutile sommet « eG8 » où la question de la protection des auteurs a été abordée. La Commission européenne n’étant d’ailleurs pas en reste, tant par sa tentative de faire adopter le traité ACTA[4] que la directive sur le brevet unitaire qui bien qu’utile sur le principe laisse entrer le logiciel dans le champ de la brevetabilité, ce qui ne saurait être plus grotesque puisque le logiciel est une expression de la pensée humaine et donc naturellement sous le régime du droit d’auteur.

Tous ces problèmes ont en commun le manque de considération des « acteurs », entreprises – pourtant grandes utilisatrices de logiciel libre – comme législateur. Ceci vient autant de la perception erronée de l’informatique comme un sujet purement technique et économique, que des effets de la vente liée, effets devenant rétroactivement causes de renforcement des monopoles. Le grand public est en effet gardé dans l’ignorance, croyant que le choix qui est fait pour lui est dans son intérêt, que « ça marche comme ça », et que « Linux ça marche pas », ce qui dans la plupart des cas est dû au manque de support matériel, lui-même résultant de l’indisponibilité des spécifications techniques du matériel, puisque bien sûr les fabricants préfèrent distribuer plutôt des pilotes pour Windows que les spécifications, qui sont pourtant le « manuel utilisateur » du matériel par le logiciel et devraient être publiques, ceci étant justement la conséquence du monopole déjà évoqué.

L’ironie de la situation étant que même Microsoft a été victime de cet état de fait, puisque lors de la sortie de Windows Vista, certains périphériques fournis uniquement avec des pilotes pour les versions précédentes de Windows n’étaient plus utilisables, mettant ainsi en colère les utilisateurs devant néanmoins acheter Windows Vista avec leur nouvelle machine, sans toutefois pouvoir utiliser certains périphériques pourtant neufs mais dont le fabricant refusait de fournir un pilote mis à jour.

Quand aux très rares matériels « certifiés Linux » disponibles, ils sont généralement seulement sommairement testés une fois pour toute certification, et de plus vraiment un « luxe » au vu des prix pratiqués.

Malgré des campagnes d’information au public de la part d’associations de promotion du logiciel libre comme l’April ou l’AFUL, ainsi que plusieurs procès gagnés par des particuliers, l’inaction de la DGCCRF est manifeste, et le status quo demeure depuis maintenant plus d’une décennie.

En effet, le problème de la vente liée, loin d’être récent, est par exemple une des causes majeures de la fermeture en 2001 de Be, Inc., éditeur du système d’exploitation BeOS, que j’ai utilisé pendant 10 ans. Déjà à l’époque Microsoft s’imposait sur les ordinateurs PC par le verrouillage du processus de démarrage, et en interdisant aux revendeurs par des contrats secrets d’installer un autre SE, la seule tentative de Be, Inc. de fournir des ordinateurs pré-installés avec son système ayant été torpillée, Hitachi se contentant alors de laisser BeOS sur le disque dur mais sans le rendre disponible au démarrage, ni même documenté et donc de facto inaccessible.

Plus tard, un éditeur de logiciel allemand ayant tenté de reprendre le développement de ce même système a également dû fermer, toujours par manque de ventes et à cause du monopole de fait de Microsoft sur le marché, me causant au passage un licenciement économique.

C’est d’ailleurs l’échec commercial de BeOS qui a conduit à la création du système d’exploitation libre Haiku auquel je contribue actuellement, dans l’idée de perpétuer son originalité, comme on tenterait de préserver une espèce nécessaire à la technodiversité. Pourtant, même si c’est un projet plus ludique que commercial à l’heure actuelle, la vente liée nous pose problème tout comme aux auteurs de Linux. En effet, la non disponibilité des spécifications matérielles chez certains fabricants et de nombreux constructeurs rend impossible l’écriture des pilotes de périphériques pourtant nécessaire à leur utilisation.

Cet état de fait est d’ailleurs une régression. En effet à une certaine époque la plupart des machines électroniques (téléviseurs, électrophones, mais aussi ordinateurs) étaient livrées avec les schémas complets. J’ai ainsi par exemple, dans le manuel utilisateur de mon premier ordinateur (un ORIC Atmos), la description de son fonctionnement interne et toute la documentation permettant d’interfacer du matériel, et l’importateur avait même publié les plans. L’obsolescence programmée a pris le pas depuis lors.

Ce luxe donc, auquel vous avez droit, m’a été refusé à l’achat de mon dernier ordinateur portable. Non seulement le fabricant refuse de rembourser la licence de Windows 7 que je n’ai jamais demandée, mais il ne m’a toujours pas communiqué les spécifications nécessaires à l’adaptation du système que je désire utiliser et auquel je contribue. J’en suis donc réduit lorsque je tente de l’utiliser actuellement à une résolution graphique inférieure à ce que l’écran permet et sans aucune accélération matérielle, pas de connexion réseau, et l’impossibilité de produire du son, sans parler des fonctions moins essentielles, que pourtant j’ai payées. Pourtant, ainsi que je l’ai dit, ces spécifications constituent le « manuel utilisateur » du matériel par le logiciel, et forment donc en ce qui me concerne, des «caractéristiques essentielles »[5]. D’ailleurs, cette même machine avec GNU/Linux que j’utilise également cause régulièrement des problèmes pour la même raison, à savoir la non disponibilité des spécifications qui empêche la correction d’un bogue du pilote vidéo pourtant documenté depuis plus d’un an.

La vente liée cause du tort également à des éditeurs français, comme Mandriva, qui publiait une distribution de GNU/Linux depuis 1998, initialement appelée « Mandrake Linux », que j’ai d’ailleurs un temps utilisée, mais n’a pas réussi à s’imposer et a donc disparu récemment. On ne peu que déplorer le résultat de cette concurrence pas vraiment libre et certainement faussée.

Et pourtant le logiciel libre permet de développer de nombreux [modèles économiques différents|http://www.april.org/livre-blanc-des-modele-economiques-du-logiciel-libre], ouvrant des perspectives d’emploi pour des PME innovantes, si la loi ne le défavorise pas.

Par ces temps de crise, il ne serait d’ailleurs pas inutile de s’intéresser aux optimisations fiscales, pour ne pas parler d’évasion, que certaines entreprises multinationales pratiquent, Microsoft en premier mais également Apple. L’absence de détail des prix lors de la vente liée pose d’ailleurs des questions légitimes quand à la répartition de la TVA.

La pratique par Microsoft du verrouillage du processus de démarrage, que j’évoquais plus haut à propos des PC, est d’ailleurs toujours d’actualité puisque bien évidemment les prochaines tablettes « compatibles Windows 8 » devront implémenter obligatoirement le mécanisme dit « SecureBoot », qui au prétexte de limiter les virus rendra totalement impossible l’installation d’un système libre. Et donc alors même que le combat contre la vente liée s’éternise sur les PC, il est presque déjà perdu sur les machines qui les remplaceront bientôt, alors même que ce sont toujours des ordinateurs malgré tout, dont l’utilisateur devrait garder le contrôle, contrôle qui s’exprime en premier sur le choix des logiciels qu’il voudra pouvoir utiliser ou non.

Le choix d’installer Windows s’apparente ainsi plus au non-choix, à un blanc-seing laissé à Microsoft quand au contrôle de votre machine, avec la sécurité qu’on lui connaît. C’est aussi un choix de facilité, au vu de la situation actuelle, mais également la caution d’une situation inacceptable.

Le choix d’installer GNU/Linux, sur une machine de bureau, est avant tout moral et éthique avant d’être pragmatique, alors que sur un serveur il s’impose plus logiquement. C’est pourtant tout autant un choix de sécurité, puisque le code source ouvert garantit le contrôle que l’on a sur le système, comme l’absence de porte dérobée. C’est aussi un choix courageux et téméraire, par l’entrée dans ce qui reste encore une minorité technologiquement discriminée. Mais ce serait aussi un signal fort envers les développeurs qui créent ces logiciels, les utilisateurs confortés dans leur choix difficile, et enfin les fabricants de matériels qui pour certains encore n’ont pas compris qu’il était de leur devoir et de leur intérêt de considérer tous les utilisateurs.

Ne vous y trompez pas, la majorité des problèmes qui pourraient survenir lors de l’utilisation de GNU/Linux ne sont pas de son fait ou des développeurs qui l’ont écrit, mais bien de Microsoft, Apple, et d’autres éditeurs, qui par leur politique de fermeture compliquent inutilement l’interopérabilité entre leur système et les autres, à dessein bien sûr, puisque leur but est le monopole. D’ailleurs il est à prévoir des incompatibilités entre GNU/Linux et l’infrastructure choisie par la questure pour la gestion des courriels, à savoir Microsoft Exchange, bien connu pour ne respecter aucun standard hormis le sien, c’est à dire donc aucun, puisque les formats et protocoles d’Exchange ne sont en rien normalisés ni donc standard (de jure). Alors même que les logiciels de courriel de GNU/Linux respectent de nombreux standards et normes. Pour résumer, dire que GNU/Linux pose problème serait simplement inverser la situation causée par ces monopoles.

Une métaphore que j’utilise depuis des années sans succès, mais pourtant découverte aussi récemment par un juge, s’énonce ainsi :

« La vente liée d’un système d’exploitation avec un ordinateur revient à l’obligation d’embauche d’un chauffeur à l’achat d’une voiture. »

Ceci vous semble absurde ? À moi aussi. C’est pourtant la pratique actuelle.

En tant qu’ingénieur, auteur de logiciels libres, citoyen et électeur, ce sujet me tient à cœur, et il me semble nécessaire qu’au moins la législation actuelle soit appliquée, à défaut d’évoluer. J’espère vous avoir éclairé sur ce choix important qui vous incombe, non dénué de symbole, et qui je le rappelle est un luxe pour le particulier même informé. Je reste à votre disposition pour toute discussion.

Je vous prie d’agréer, Madame, Monsieur le Député, l’expression de ma considération la plus distinguée.

François Revol

Crédit photo : Takato Marui (Creative Commons By-Sa)

Notes

[1] Le système libre GNU fonctionnant sur le noyau Linux, lui aussi libre.

[2] Article L.122-1 du code de la consommation

[3] Digital Rights Management, en français MTP pour « Méthodes Techniques de Protection »

[4] Anti-Counterfeiting Trade Agreement, ou Accord commercial anti-contrefaçon (ACAC)

[5] Au titre de l’article L-111-1 I. du code de la consommation.




Tablettes, une évolution anti subversive

Veronica Belmont - CC by

aKa twettait il y a quelques jours : « Les tablettes sont une évolution non subversive car elles rendent plus agréable la lecture et plus pénible l’écriture ». Il formulait ainsi brillamment le sentiment qui m’habite depuis plusieurs semaines de fréquentation de ma formidable et néanmoins agaçante tablette Androïd, très proche du tant espéré sac sans fond de Miss Tick.

J’aime beaucoup cet engin léger mais je cherche encore l’application d’édition de texte qui me permettrait d’écrire ou de corriger des textes longs, avec commentaires et marques de révision. Sans parler de la récupération sous un format bureautique, de préférence ouvert, des notes prises lors de ma lecture de livres électroniques… Pas de logiciels appropriés, un clavier tactile qui n’est pas vraiment l’ami de l’auteur de thèse (pour de simples raisons de taille de l’interface, un problème par conséquent commun à toutes les tablettes 10 pouces), j’ai en effet dans les mains un outil de lecture et non d’écriture. Lecture de jeux, de textes, de vidéos. Il permet de s’exprimer puisque je peux facilement enregistrer et publier sons, photos, vidéos, textes courts (tweets, commentaires, avis). Mais, si une photo vaut 1000 mots en vaut-elle 100 000 ? Je ne crois pas qu’il faille s’étendre longtemps ici sur la nécessité d’argumentaires élaborés, que l’on n’écrira jamais de façon linéaire dans une succession de remarques de 140 caractères pensées dès le départ dans leur ordre final.

Les tablettes, dont le nom évoque paradoxalement la tablette d’argile des scribes antiques, se revendique d’ailleurs comme un outil de divertissement qui, étymologiquement, désigne « ce qui détourne quelqu’un de l’essentiel ». L’essentiel serait ici l’écriture longue, l’écriture de travail, et avec elle la pensée argumentée, celle qui a déjà tellement fait parler en s’ouvrant grâce aux outils de blog à des auteurs et penseurs non patentés.

Comme l’écrit Michel Foucault en 1970[1], l’ordre des discours est un ensemble de procédures qui ont pour rôle de contrôler et de délimiter le discours, « d’en conjurer les pouvoirs et les dangers, d’en maîtriser l’événement aléatoire, d’en esquiver la lourde, la redoutable matérialité. » Tous les outils de facilitation de l’accès à la parole remettent en question ces modalités de contrôle du danger du discours. Les outils d’écriture en particulier, l’écrit possédant historiquement un statut unique : chacun sait parler y compris le fou, celui dont on ne doit pas écouter le discours, mais l’auteur doit avoir été alphabétisé, puis rendu public, publié, avec l’adoubement de ses pairs, de sa maison d’édition.

Les outils réseau WYSIWYG d’écriture sont subversifs car ils mettent potentiellement en danger l’ordre établi des prescripteurs de la pensée : éditeurs, « publieurs » de tout types de textes. Non qu’il faille nécessairement mettre cet ordre à bas mais plus de liberté est toujours bon à prendre. Un nouvel ordre s’est d’ailleurs mis en place, plus souple, blogueurs et auteurs en ligne, intelligents et/ou informés, se relayant aux cotés d’institutions et de prescripteurs anciens, non moins intelligents et/ou informés et (parfois) à l’écoute des premiers.

Or, l’avènement des tablettes et leur succès suggère un risque de désengagement de certains auteurs (ou potentiels auteurs) de textes longs, ceux pour lesquels l’outil constitue une contrainte et qui n’en ont pas plusieurs à disposition. L’outil est indissociable du geste et de la pensée. Quel impact social ce désengagement par KO technique de l’auteur “de masse” aura-t-il?

Selon le philosophe allemand Peter Sloterdijk, on peut établir une typologie de l’humanisme. Il y a d’abord une période antique qui offre par le livre de domestiquer l’homme : « On ne peut comprendre l’humanisme antique que si on le considère aussi comme partie prenante d’un conflit de médias, à savoir, comme la résistance du livre contre le cirque, comme l’opposition entre la lecture philosophique qui humanise, rend patient et suscite la réflexion, et l’ivresse déshumanisante des stades romains. » À cette période succède celle de l’humanisme bourgeois qui repose “en substance sur le pouvoir d’imposer à la jeunesse les auteurs classiques afin de maintenir la valeur universelle de la lecture nationale. En conséquence, les nations bourgeoises allaient devenir, jusqu’à un certain point, des produits littéraires et postaux – fictions d’une amitié inéluctable entre compatriotes, même éloignés, et entre lecteurs enthousiastes des mêmes auteurs. »

Ainsi, pour Sloterdijk, l’humanité consiste à choisir, pour développer sa propre nature, les médias qui domestiquent plutôt que ceux qui désinhibent. Or, la thèse latente de l’humanisme, selon laquelle « de bonnes lectures adoucissent les moeurs », est mise à mal avec l’évolution des médias dans la culture de masse à partir de 1918 (radio) et après 1945 (télévision), “la littérature, la correspondance et l’idéologie humaniste n’influençant plus aujourd’hui que marginalement les méga-sociétés modernes dans la production du lien politico-culturel”.

Contrairement à l’analyse de Sloterdijk qui associe ensuite radio, télé et réseau, il me semble que l’association entre l’ordinateur domestique (!) et le réseau offre une alternative à cet humanisme domestiquant ou à l’humanisme moderne post-littéraire qu’il décrit, au moyen d’une littérature encore vecteur de lien mais beaucoup moins encadrée par ses autorités de tutelle, par nos précepteurs. Sans retomber dans les jeux du cirque (enfin, pas complètement…).

Et voila que nous arrive ce très séduisant outil qui semble créé (il n’y a pas de théorie du complot derrière ces termes !) pour appuyer encore la tendance réseau/Minitel 2.0 dénoncée par Benjamin Bayart : données centralisées sur des serveurs externes, terminaux passifs, internaute-spectateur. S’agit-il d’un retour volontaire à la domestication ?

Les tablettes sont donc non seulement une évolution non subversive mais peut-être aussi une évolution anti subversive si nous n’y prenons garde. Armons-nous donc de claviers et disques durs externes et développons pour ces outils dont le succès à long terme semble assuré des applications (libres) d’édition de textes longs. Pour ma part j’ai écrit ce texte sur mon ordinateur portable que je ne suis pas prête d’abandonner.

Chloé Girard – Juin 2012
Responsable de fabrication papier et électronique pour la maison d’édition Droz

Crédit photo : Veronica Belmont (Creative Commons By)

Notes

[1] Michel FOUCAULT, L’ordre du discours Leçon inaugurale, Collège de France, Paris : Flammarion, 1971.




Geektionnerd : Microsoft Surface

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source : L’épique Fail Freeze (et le grand moment de solitude) du gars de chez Microsoft présentant Surface sur scène.

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.