Geektionnerd : Goodbye Minitel, the French Wide Web

« J’entends : Ah ! Nous sommes en retard, mais ce n’est pas vrai ! Nous avons en France le Minitel. La boulangère d’Aubervilliers sait parfaitement interroger sa banque par Minitel, alors que la boulangère de New York en est incapable. » Jacques Chirac, 10 mars 1997 sur France 2.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Madame, Monsieur le Député, pourquoi il est important de faire le choix du Libre

Signal fort et beau symbole, en 2007 il avait été décidé de passer les postes des députés sous GNU/Linux Ubuntu et OpenOffice.org (cf ces témoignages). Arrive aujourd’hui le temps du renouvellement et les députés, fraîchement élu(e)s ou réélu(e)s, ont le choix du choix, avec Windows ou Ubuntu et Microsoft Office ou LibreOffice.

François Revol est un acteur bien connu de la communauté francophone du logiciel libre. Il fait ici acte de citoyenneté en prenant le temps d’adresser une lettre détaillée et personnalisée à son député sur ce sujet à ses yeux bien plus important qu’il n’y paraît. Nous vous invitons à vous en inspirer pour en faire de même, si vous partagez ses arguments et sa préoccupation.

Nous ne souhaitons pas qu’une assemblée nationale plus rose devienne moins libre.

Takato Marui - CC by-sa

Objet : Système d’exploitation de votre ordinateur

Madame, Monsieur le Député,

Si ce n’est déjà fait, et que personne n’a choisi à votre place, vous allez devoir prendre une décision très importante, que vous pourrez considérer comme anodine mais qui pourtant est cruciale.

Pour cette législature, conformément à la demande de la questure, vous avez le choix du système d’exploitation (SE) qui sera utilisé sur votre ordinateur. La législature précédente avait permis un énorme progrès par l’installation de GNU/Linux[1] sur toutes les machines des députés auparavant sous Windows, mettant ainsi à leur disposition un système plus éthique, plus économique, plus flexible, et participant à restaurer une certaine indépendance européenne dans le secteur du logiciel. Il semble au contraire pour cette législature, pour certaines raisons obscures et surtout exprimées bien tardivement, qu’il ait été décidé de vous laisser le choix. L’histoire dira, et surtout votre choix, si c’est un recul ou un progrès, et si vous avez usé sagement de ce qui pour beaucoup d’entre nous est encore un luxe, puisque précieux mais trop peu répandu.

En effet, malgré l’interdiction par la loi de la vente liée[2], le choix du système d’exploitation lors de l’achat d’un ordinateur par un particulier relève encore du plus rare des luxes, réservé aux seules entreprises. Si l’on en croit les revendeurs et fabricants, le particulier est simplement trop stupide pour faire un choix éclairé. L’excuse d’une complexité accrue de production est également caduque, les offres existantes pour les entreprises montrant la viabilité de proposition du choix. En fait il s’agit surtout de préserver des monopoles établis, ceux d’une entreprise américaine bien connue pour avoir été sanctionnée par la Commission européenne pour cette même raison.

Pourtant le choix du système d’exploitation est important à plusieurs titres, même en laissant l’éthique de côté, ayant même des conséquences sur la relocalisation d’emplois.

Ainsi par exemple le choix d’un SE libre permet, en plus de répondre aux questions d’indépendance, d’interopérabilité, et d’adaptabilité, de générer une activité de développement logiciel locale nécessaire à une adaptation au plus près des besoins, adaptation impossible avec du logiciel propriétaire qui dépend entièrement du bon vouloir de l’éditeur. En effet, le logiciel libre, par essence, est distribué avec son code source et la liberté de modification, permettant ainsi la création et la mise en concurrence d’expertises non subordonnées à l’éditeur original. La mutualisation des coûts de production des logiciels libres participe aussi de la création de biens communs. Comme nombre de sujets connexes liés au numérique, le logiciel libre transcende donc le bipartisme.

Certains d’entre vous ont d’ailleurs signé le Pacte Logiciel Libre lors de la campagne, d’autres lors de précédentes législatures ont voté pour ou contre certains projets de loi dommageables au logiciel libre, comme DADVSI ou HADOPI, créant ainsi du tracas y compris à des universitaires français, comme les auteurs du logiciel de lecture vidéo VLC, obligés de demander à la HADOPI comment contourner les DRM[3] du BluRay. La HADOPI n’a d’ailleurs pas été d’une grande utilité pour résoudre la violation de la licence de FFmpeg/LibAV, logiciel libre auquel j’ai modestement contribué, commise par un sous-traitant d’Orange4 pendant plus d’un an. Il s’agit pourtant ici également de protection des auteurs. Il est intéressant de plus de noter qu’Orange comptait parmi les fiers sponsors officiels de l’inutile sommet « eG8 » où la question de la protection des auteurs a été abordée. La Commission européenne n’étant d’ailleurs pas en reste, tant par sa tentative de faire adopter le traité ACTA[4] que la directive sur le brevet unitaire qui bien qu’utile sur le principe laisse entrer le logiciel dans le champ de la brevetabilité, ce qui ne saurait être plus grotesque puisque le logiciel est une expression de la pensée humaine et donc naturellement sous le régime du droit d’auteur.

Tous ces problèmes ont en commun le manque de considération des « acteurs », entreprises – pourtant grandes utilisatrices de logiciel libre – comme législateur. Ceci vient autant de la perception erronée de l’informatique comme un sujet purement technique et économique, que des effets de la vente liée, effets devenant rétroactivement causes de renforcement des monopoles. Le grand public est en effet gardé dans l’ignorance, croyant que le choix qui est fait pour lui est dans son intérêt, que « ça marche comme ça », et que « Linux ça marche pas », ce qui dans la plupart des cas est dû au manque de support matériel, lui-même résultant de l’indisponibilité des spécifications techniques du matériel, puisque bien sûr les fabricants préfèrent distribuer plutôt des pilotes pour Windows que les spécifications, qui sont pourtant le « manuel utilisateur » du matériel par le logiciel et devraient être publiques, ceci étant justement la conséquence du monopole déjà évoqué.

L’ironie de la situation étant que même Microsoft a été victime de cet état de fait, puisque lors de la sortie de Windows Vista, certains périphériques fournis uniquement avec des pilotes pour les versions précédentes de Windows n’étaient plus utilisables, mettant ainsi en colère les utilisateurs devant néanmoins acheter Windows Vista avec leur nouvelle machine, sans toutefois pouvoir utiliser certains périphériques pourtant neufs mais dont le fabricant refusait de fournir un pilote mis à jour.

Quand aux très rares matériels « certifiés Linux » disponibles, ils sont généralement seulement sommairement testés une fois pour toute certification, et de plus vraiment un « luxe » au vu des prix pratiqués.

Malgré des campagnes d’information au public de la part d’associations de promotion du logiciel libre comme l’April ou l’AFUL, ainsi que plusieurs procès gagnés par des particuliers, l’inaction de la DGCCRF est manifeste, et le status quo demeure depuis maintenant plus d’une décennie.

En effet, le problème de la vente liée, loin d’être récent, est par exemple une des causes majeures de la fermeture en 2001 de Be, Inc., éditeur du système d’exploitation BeOS, que j’ai utilisé pendant 10 ans. Déjà à l’époque Microsoft s’imposait sur les ordinateurs PC par le verrouillage du processus de démarrage, et en interdisant aux revendeurs par des contrats secrets d’installer un autre SE, la seule tentative de Be, Inc. de fournir des ordinateurs pré-installés avec son système ayant été torpillée, Hitachi se contentant alors de laisser BeOS sur le disque dur mais sans le rendre disponible au démarrage, ni même documenté et donc de facto inaccessible.

Plus tard, un éditeur de logiciel allemand ayant tenté de reprendre le développement de ce même système a également dû fermer, toujours par manque de ventes et à cause du monopole de fait de Microsoft sur le marché, me causant au passage un licenciement économique.

C’est d’ailleurs l’échec commercial de BeOS qui a conduit à la création du système d’exploitation libre Haiku auquel je contribue actuellement, dans l’idée de perpétuer son originalité, comme on tenterait de préserver une espèce nécessaire à la technodiversité. Pourtant, même si c’est un projet plus ludique que commercial à l’heure actuelle, la vente liée nous pose problème tout comme aux auteurs de Linux. En effet, la non disponibilité des spécifications matérielles chez certains fabricants et de nombreux constructeurs rend impossible l’écriture des pilotes de périphériques pourtant nécessaire à leur utilisation.

Cet état de fait est d’ailleurs une régression. En effet à une certaine époque la plupart des machines électroniques (téléviseurs, électrophones, mais aussi ordinateurs) étaient livrées avec les schémas complets. J’ai ainsi par exemple, dans le manuel utilisateur de mon premier ordinateur (un ORIC Atmos), la description de son fonctionnement interne et toute la documentation permettant d’interfacer du matériel, et l’importateur avait même publié les plans. L’obsolescence programmée a pris le pas depuis lors.

Ce luxe donc, auquel vous avez droit, m’a été refusé à l’achat de mon dernier ordinateur portable. Non seulement le fabricant refuse de rembourser la licence de Windows 7 que je n’ai jamais demandée, mais il ne m’a toujours pas communiqué les spécifications nécessaires à l’adaptation du système que je désire utiliser et auquel je contribue. J’en suis donc réduit lorsque je tente de l’utiliser actuellement à une résolution graphique inférieure à ce que l’écran permet et sans aucune accélération matérielle, pas de connexion réseau, et l’impossibilité de produire du son, sans parler des fonctions moins essentielles, que pourtant j’ai payées. Pourtant, ainsi que je l’ai dit, ces spécifications constituent le « manuel utilisateur » du matériel par le logiciel, et forment donc en ce qui me concerne, des «caractéristiques essentielles »[5]. D’ailleurs, cette même machine avec GNU/Linux que j’utilise également cause régulièrement des problèmes pour la même raison, à savoir la non disponibilité des spécifications qui empêche la correction d’un bogue du pilote vidéo pourtant documenté depuis plus d’un an.

La vente liée cause du tort également à des éditeurs français, comme Mandriva, qui publiait une distribution de GNU/Linux depuis 1998, initialement appelée « Mandrake Linux », que j’ai d’ailleurs un temps utilisée, mais n’a pas réussi à s’imposer et a donc disparu récemment. On ne peu que déplorer le résultat de cette concurrence pas vraiment libre et certainement faussée.

Et pourtant le logiciel libre permet de développer de nombreux [modèles économiques différents|http://www.april.org/livre-blanc-des-modele-economiques-du-logiciel-libre], ouvrant des perspectives d’emploi pour des PME innovantes, si la loi ne le défavorise pas.

Par ces temps de crise, il ne serait d’ailleurs pas inutile de s’intéresser aux optimisations fiscales, pour ne pas parler d’évasion, que certaines entreprises multinationales pratiquent, Microsoft en premier mais également Apple. L’absence de détail des prix lors de la vente liée pose d’ailleurs des questions légitimes quand à la répartition de la TVA.

La pratique par Microsoft du verrouillage du processus de démarrage, que j’évoquais plus haut à propos des PC, est d’ailleurs toujours d’actualité puisque bien évidemment les prochaines tablettes « compatibles Windows 8 » devront implémenter obligatoirement le mécanisme dit « SecureBoot », qui au prétexte de limiter les virus rendra totalement impossible l’installation d’un système libre. Et donc alors même que le combat contre la vente liée s’éternise sur les PC, il est presque déjà perdu sur les machines qui les remplaceront bientôt, alors même que ce sont toujours des ordinateurs malgré tout, dont l’utilisateur devrait garder le contrôle, contrôle qui s’exprime en premier sur le choix des logiciels qu’il voudra pouvoir utiliser ou non.

Le choix d’installer Windows s’apparente ainsi plus au non-choix, à un blanc-seing laissé à Microsoft quand au contrôle de votre machine, avec la sécurité qu’on lui connaît. C’est aussi un choix de facilité, au vu de la situation actuelle, mais également la caution d’une situation inacceptable.

Le choix d’installer GNU/Linux, sur une machine de bureau, est avant tout moral et éthique avant d’être pragmatique, alors que sur un serveur il s’impose plus logiquement. C’est pourtant tout autant un choix de sécurité, puisque le code source ouvert garantit le contrôle que l’on a sur le système, comme l’absence de porte dérobée. C’est aussi un choix courageux et téméraire, par l’entrée dans ce qui reste encore une minorité technologiquement discriminée. Mais ce serait aussi un signal fort envers les développeurs qui créent ces logiciels, les utilisateurs confortés dans leur choix difficile, et enfin les fabricants de matériels qui pour certains encore n’ont pas compris qu’il était de leur devoir et de leur intérêt de considérer tous les utilisateurs.

Ne vous y trompez pas, la majorité des problèmes qui pourraient survenir lors de l’utilisation de GNU/Linux ne sont pas de son fait ou des développeurs qui l’ont écrit, mais bien de Microsoft, Apple, et d’autres éditeurs, qui par leur politique de fermeture compliquent inutilement l’interopérabilité entre leur système et les autres, à dessein bien sûr, puisque leur but est le monopole. D’ailleurs il est à prévoir des incompatibilités entre GNU/Linux et l’infrastructure choisie par la questure pour la gestion des courriels, à savoir Microsoft Exchange, bien connu pour ne respecter aucun standard hormis le sien, c’est à dire donc aucun, puisque les formats et protocoles d’Exchange ne sont en rien normalisés ni donc standard (de jure). Alors même que les logiciels de courriel de GNU/Linux respectent de nombreux standards et normes. Pour résumer, dire que GNU/Linux pose problème serait simplement inverser la situation causée par ces monopoles.

Une métaphore que j’utilise depuis des années sans succès, mais pourtant découverte aussi récemment par un juge, s’énonce ainsi :

« La vente liée d’un système d’exploitation avec un ordinateur revient à l’obligation d’embauche d’un chauffeur à l’achat d’une voiture. »

Ceci vous semble absurde ? À moi aussi. C’est pourtant la pratique actuelle.

En tant qu’ingénieur, auteur de logiciels libres, citoyen et électeur, ce sujet me tient à cœur, et il me semble nécessaire qu’au moins la législation actuelle soit appliquée, à défaut d’évoluer. J’espère vous avoir éclairé sur ce choix important qui vous incombe, non dénué de symbole, et qui je le rappelle est un luxe pour le particulier même informé. Je reste à votre disposition pour toute discussion.

Je vous prie d’agréer, Madame, Monsieur le Député, l’expression de ma considération la plus distinguée.

François Revol

Crédit photo : Takato Marui (Creative Commons By-Sa)

Notes

[1] Le système libre GNU fonctionnant sur le noyau Linux, lui aussi libre.

[2] Article L.122-1 du code de la consommation

[3] Digital Rights Management, en français MTP pour « Méthodes Techniques de Protection »

[4] Anti-Counterfeiting Trade Agreement, ou Accord commercial anti-contrefaçon (ACAC)

[5] Au titre de l’article L-111-1 I. du code de la consommation.




Tablettes, une évolution anti subversive

Veronica Belmont - CC by

aKa twettait il y a quelques jours : « Les tablettes sont une évolution non subversive car elles rendent plus agréable la lecture et plus pénible l’écriture ». Il formulait ainsi brillamment le sentiment qui m’habite depuis plusieurs semaines de fréquentation de ma formidable et néanmoins agaçante tablette Androïd, très proche du tant espéré sac sans fond de Miss Tick.

J’aime beaucoup cet engin léger mais je cherche encore l’application d’édition de texte qui me permettrait d’écrire ou de corriger des textes longs, avec commentaires et marques de révision. Sans parler de la récupération sous un format bureautique, de préférence ouvert, des notes prises lors de ma lecture de livres électroniques… Pas de logiciels appropriés, un clavier tactile qui n’est pas vraiment l’ami de l’auteur de thèse (pour de simples raisons de taille de l’interface, un problème par conséquent commun à toutes les tablettes 10 pouces), j’ai en effet dans les mains un outil de lecture et non d’écriture. Lecture de jeux, de textes, de vidéos. Il permet de s’exprimer puisque je peux facilement enregistrer et publier sons, photos, vidéos, textes courts (tweets, commentaires, avis). Mais, si une photo vaut 1000 mots en vaut-elle 100 000 ? Je ne crois pas qu’il faille s’étendre longtemps ici sur la nécessité d’argumentaires élaborés, que l’on n’écrira jamais de façon linéaire dans une succession de remarques de 140 caractères pensées dès le départ dans leur ordre final.

Les tablettes, dont le nom évoque paradoxalement la tablette d’argile des scribes antiques, se revendique d’ailleurs comme un outil de divertissement qui, étymologiquement, désigne « ce qui détourne quelqu’un de l’essentiel ». L’essentiel serait ici l’écriture longue, l’écriture de travail, et avec elle la pensée argumentée, celle qui a déjà tellement fait parler en s’ouvrant grâce aux outils de blog à des auteurs et penseurs non patentés.

Comme l’écrit Michel Foucault en 1970[1], l’ordre des discours est un ensemble de procédures qui ont pour rôle de contrôler et de délimiter le discours, « d’en conjurer les pouvoirs et les dangers, d’en maîtriser l’événement aléatoire, d’en esquiver la lourde, la redoutable matérialité. » Tous les outils de facilitation de l’accès à la parole remettent en question ces modalités de contrôle du danger du discours. Les outils d’écriture en particulier, l’écrit possédant historiquement un statut unique : chacun sait parler y compris le fou, celui dont on ne doit pas écouter le discours, mais l’auteur doit avoir été alphabétisé, puis rendu public, publié, avec l’adoubement de ses pairs, de sa maison d’édition.

Les outils réseau WYSIWYG d’écriture sont subversifs car ils mettent potentiellement en danger l’ordre établi des prescripteurs de la pensée : éditeurs, « publieurs » de tout types de textes. Non qu’il faille nécessairement mettre cet ordre à bas mais plus de liberté est toujours bon à prendre. Un nouvel ordre s’est d’ailleurs mis en place, plus souple, blogueurs et auteurs en ligne, intelligents et/ou informés, se relayant aux cotés d’institutions et de prescripteurs anciens, non moins intelligents et/ou informés et (parfois) à l’écoute des premiers.

Or, l’avènement des tablettes et leur succès suggère un risque de désengagement de certains auteurs (ou potentiels auteurs) de textes longs, ceux pour lesquels l’outil constitue une contrainte et qui n’en ont pas plusieurs à disposition. L’outil est indissociable du geste et de la pensée. Quel impact social ce désengagement par KO technique de l’auteur “de masse” aura-t-il?

Selon le philosophe allemand Peter Sloterdijk, on peut établir une typologie de l’humanisme. Il y a d’abord une période antique qui offre par le livre de domestiquer l’homme : « On ne peut comprendre l’humanisme antique que si on le considère aussi comme partie prenante d’un conflit de médias, à savoir, comme la résistance du livre contre le cirque, comme l’opposition entre la lecture philosophique qui humanise, rend patient et suscite la réflexion, et l’ivresse déshumanisante des stades romains. » À cette période succède celle de l’humanisme bourgeois qui repose “en substance sur le pouvoir d’imposer à la jeunesse les auteurs classiques afin de maintenir la valeur universelle de la lecture nationale. En conséquence, les nations bourgeoises allaient devenir, jusqu’à un certain point, des produits littéraires et postaux – fictions d’une amitié inéluctable entre compatriotes, même éloignés, et entre lecteurs enthousiastes des mêmes auteurs. »

Ainsi, pour Sloterdijk, l’humanité consiste à choisir, pour développer sa propre nature, les médias qui domestiquent plutôt que ceux qui désinhibent. Or, la thèse latente de l’humanisme, selon laquelle « de bonnes lectures adoucissent les moeurs », est mise à mal avec l’évolution des médias dans la culture de masse à partir de 1918 (radio) et après 1945 (télévision), “la littérature, la correspondance et l’idéologie humaniste n’influençant plus aujourd’hui que marginalement les méga-sociétés modernes dans la production du lien politico-culturel”.

Contrairement à l’analyse de Sloterdijk qui associe ensuite radio, télé et réseau, il me semble que l’association entre l’ordinateur domestique (!) et le réseau offre une alternative à cet humanisme domestiquant ou à l’humanisme moderne post-littéraire qu’il décrit, au moyen d’une littérature encore vecteur de lien mais beaucoup moins encadrée par ses autorités de tutelle, par nos précepteurs. Sans retomber dans les jeux du cirque (enfin, pas complètement…).

Et voila que nous arrive ce très séduisant outil qui semble créé (il n’y a pas de théorie du complot derrière ces termes !) pour appuyer encore la tendance réseau/Minitel 2.0 dénoncée par Benjamin Bayart : données centralisées sur des serveurs externes, terminaux passifs, internaute-spectateur. S’agit-il d’un retour volontaire à la domestication ?

Les tablettes sont donc non seulement une évolution non subversive mais peut-être aussi une évolution anti subversive si nous n’y prenons garde. Armons-nous donc de claviers et disques durs externes et développons pour ces outils dont le succès à long terme semble assuré des applications (libres) d’édition de textes longs. Pour ma part j’ai écrit ce texte sur mon ordinateur portable que je ne suis pas prête d’abandonner.

Chloé Girard – Juin 2012
Responsable de fabrication papier et électronique pour la maison d’édition Droz

Crédit photo : Veronica Belmont (Creative Commons By)

Notes

[1] Michel FOUCAULT, L’ordre du discours Leçon inaugurale, Collège de France, Paris : Flammarion, 1971.




Geektionnerd : Microsoft Surface

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source : L’épique Fail Freeze (et le grand moment de solitude) du gars de chez Microsoft présentant Surface sur scène.

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Quand Philippe Meirieu nous dit, chez Microsoft, tout le bien qu’il pense du Libre

Le 5 avril dernier, en pleine campagne présidentielle, était organisée une journée éducation chez Microsoft France sur le thème de l’école demain.

Au programme, copieux, une table ronde politique animée par François Jarraud du Café Pédagogique (dont on ne s’étonnera guère de sa présence ici) avec Fleur Pellerin pour François Hollande, Nicolas Princen pour Nicolas Sarkozy et donc Philippe Meirieu alors impliqué dans la campagne d’Eva Joly.

Nous avons choisi d’extraire un court passage de l’intervention de ce dernier car nous abondons dans son sens.

Sans oublier le clin d’œil lié à la symbolique d’un lieu à priori peu enclin à faire un tel éloge du Libre. Philippe Meirieu semble d’ailleurs en avoir bien conscience puisqu’il commence ainsi son propos : « Je le dis ici en toute liberté… » 😉

—> La vidéo au format webm

Transcript

(c’est nous qui soulignons)

« Je le dis ici en toute liberté, ma formation politique est très attachée à la promotion et au développement des logiciel libres, au pluralisme technologique et pédagogique dans l’ensemble des établissements scolaires.

Elle estime qu’il y a là, au delà des questions techniques, une question un peu philosophique qui est celle de la mise en réseau à travers les logiciels libres des savoirs et des compétences, du partage, de ce que chacun peut apporter au collectif et de la promotion d’un modèle plus coopératif, et ce terme de coopératif nous y tenons beaucoup, un modèle plus coopératif de l’organisation du numérique aujourd’hui.

On pourrait en parler très longuement, la diffusion des travaux sous licence libre nous parait devoir être développée de manière systématique, y compris dans les universités d’ailleurs.

Moi-même, à titre personnel, j’ai dû mettre mes cours sur un site que j’ai fait moi-même parce que mon université les met sur un site qui exige, pour pouvoir le consulter, un code d’accès et qui ne peut pas être consulté par d’autres que les étudiants de mon université, ce que je trouve absolument absurde à l’ère de la mondialisation planétaire et tout à fait contre-productif.

Quant à mes collègues qui pourraient imaginer qu’ils peuvent être payés deux fois : une fois à plein temps pour être enseignant et une deuxième fois pour les outils pédagogiques qu’ils mettent à disposition du collectif sur les sites en libre accès, ils me paraissent faire évidemment fausse route.

Je crois qu’il faut retrouver dans l’usage du numérique le sens du collectif, le sens du bien commun et du bien public, et que cela est une priorité aujourd’hui. »




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.




Ce qui s’est passé la nuit dernière, dans un cinéma de Melbourne

Inauguré en 1936, L’Astor Theatre est un cinéma bien connu des habitants de Melbourne. En janvier dernier on y a programmé un film qui a bien failli ne pas être projeté.

Pourquoi ? Parce que le cinéma actuel est en train de faire sa « révolution numérique » et que comme on peut dès lors facilement copier un film, les distributeurs ont mis plus un système complexe de protection (l’équivalent des DRM pour la musique) qui peut s’enrayer et laisser les propriétaires des salles démunis et impuissants face au problème.

C’est le témoignage d’une des personnes qui gèrent le cinéma Astor que nous vous proposons ci-dessous[1].

Thomas Hawk - CC by-nc

Ce qui s’est passé la nuit dernière

What Happened Last Night

Tara Judah – 26 janvier 2012 – The Astor Theatre Blog
(Traduction Framalang : Antistress, Lamessen, Penguin, HgO, Étienne, ZeHiro, kabaka, Penguin, Lamessen)

Nous avons tous des nuits que nous préférerions oublier. Mais parfois, il est préférable d’en parler le lendemain matin. Et étant donné que nous avons une relation étroite (nous le cinéma, vous le public), c’est probablement mieux de vous dire ce qui s’est passé et, plus important, pourquoi ça c’est passé ainsi.

La nuit dernière nous avons eu un retard imprévu, non désiré et désagréable lors de notre projection de Take Shelter – la première partie de notre mercredi de l’horreur.

J’utilise les mots imprévu, non désiré et désagréable parce que nous aimerions que vous sachiez que c’était aussi désagréable pour vous que pour nous – et aussi que c’était quelque chose de totalement hors de notre contrôle. En tant que cinéma il y a de nombreux aspects de votre expérience que nous maîtrisons et qui sont sous notre responsabilité ; l’atmosphère des lieux lorsque vous vous rendez à l’Astor est quelque chose sur lequel nous travaillons dur et pour lequel nous déployons tout notre talent, même si là aussi de nombreux facteurs extérieurs entrent en jeu. Mais parfois ces facteurs extérieurs que nous essayons d’accommoder sont tels que la situation nous échappe et, par conséquent, tout ce que nous pouvons faire est d’essayer de corriger le problème du mieux que nous le pouvons et le plus rapidement possible.

Le paysage de l’industrie cinématographique change rapidement. La plupart d’entre vous le sait déjà parce que nous partageons avec vous ces changements sur ce blog. L’année dernière, nous avons ainsi installé un nouveau projecteur numérique ultramoderne, un Barco 32B 4K. Les raisons qui nous y ont conduit étaient multiples et variées. Qu’elles aient été endommagées voire détruites avec le temps, ou rendues, volontairement ou non, indisponibles par leur distributeurs, un nombre croissant de bobines 35 mm disparaît réduisant ainsi le choix de notre programmation (et je ne vous parle même pas des différents problèmes de droits de diffusion des films).

L’arrivée de la projection numérique et l’accroissement de la disponibilité de versions numériques des films cultes et classiques nous ont effectivement offerts quelques belles opportunités de vous présenter des films autrement confinés au petit écran (dont Taxi Driver, Docteur Folamour, South Pacific, Oklahoma ! et Labyrinthe, pour n’en citer que quelques uns). Les grands studios des industries culturelles sont donc en train de se diriger vers ce qui a été salué comme étant une « révolution numérique ». Le terme lui-même est effrayant. Tandis que la projection numérique possède de nombreux avantages, elle recèle également des pièges. Ce que nous observons en ce moment est le retrait des bobines de film de 35 mm en faveur de la projection numérique, le plus souvent au format DCP (Digital Cinema Package).

Or contrairement aux pellicules de 35mm qui sont des objets physiques, livrés en bobines et qui sont projetées grâce à un projecteur mécanique, les DCP sont des fichiers informatiques chargés à l’intérieur d’un projecteur numérique qui, par bien des aspects, se résume à un ordinateur très sophistiqué. Puisque le fichier est chargé dans le projecteur, le cinéma peut en conserver une copie ad vitam aeternam, s’il y a assez d’espace sur son serveur. C’est pourquoi, après avoir eux même engendré cette situation, les studios et les distributeurs verrouillent les fichiers pour qu’ils ne puissent être projetés qu’aux horaires planifiés, réservés et payés par le cinéma. Ceci signifie que chaque DCP arrivé chiffré que vous ne pouvez ouvrir qu’avec une sorte de clé appelée KDM (Key Delivery Message), Le KDM déverrouille le contenu du fichier et permet au cinéma de projeter le film. Il dépend évidemment du film, du projecteur du cinéma mais aussi de l’horaire, et n’est souvent valide qu’environ 10 min avant et expire moins de 5 min après l’heure de projection programmée. Mis à part le fait évident que le programme horaire des projections doit être précisément suivi, cela signifie aussi que le projectionniste ne peut ni tester si le KDM fonctionne, ni vérifier la qualité du film avant le début de la projection. Ce n’est à priori pas un probléme. Mais lorsqu’il y en a un…

Lorsqu’il y a un problème, nous obtenons ce qui s’est produit la nuit dernière.

Le KDM que nous avions reçu pour Take Shelter ne fonctionnait pas. Nous avons découvert cela dix minutes environ avant la projection. Comme nous sommes un cinéma, et que nous avons des projections le soir, nous ne pouvions pas simplement appeler le distributeur pour en obtenir un nouveau, car ils travaillent aux horaires de bureau. Notre première étape fut donc d’appeler le support téléphonique ouvert 24h sur 24 aux Etats-Unis. Après avoir passé tout le processus d’authentification de notre cinéma et de la projection prévue, on nous a dit que nous devions appeler Londres pour obtenir un autre KDM pour cette séance précise. Après avoir appelé Londres et avoir authentifié de nouveau notre cinéma et notre projection, on nous a dit qu’ils pouvaient nous fournir un autre KDM, mais pas avant que le distributeur ne l’autorise aussi. Cela voulait dire un autre délai de 5-10 minutes pendant que nous attendions que le distributeur confirme que nous avions en effet bien le droit de projeter le film à cet horaire. Une fois la confirmation reçue, nous avons attendu que le KDM soit émis. Le KDM arrive sous la forme d’un fichier zip attaché dans un mail, qui doit donc être ensuite dézippé, sauvegardé sur une carte mémoire et copié sur le serveur. Cela prend à nouveau 5-10 minutes. Une fois chargé, le projecteur doit reconnaître le KDM et débloquer la séance programmée. Heureusement, cela a fonctionné. Néanmoins, jusqu’à ce moment-là, nous ne savions absolument pas, tout comme notre public, si le nouveau KDM allait fonctionner ou non, et donc si la projection pourrait ou non avoir lieu.

Il ne s’agit que d’un incident dans un cinéma. Il y a des milliers et des milliers de projections dans des cinémas comme le nôtre à travers le monde, qui rencontrent les mêmes problèmes. Si nous avions projeté le film en 35 mm, il aurait commencé à l’horaire prévu. Le projectionniste aurait préparé la bobine, l’aurait mise dans le projecteur et alignée correctement avant même que vous vous ne soyiez assis, zut, avant même que nous n’ayions ouvert les portes pour la soirée. Mais c’est une situation que l’industrie du cinéma a créée et qu’elle va continuer de vendre comme étant supérieure au film 35mm.

Je ne dis pas qu’il n’y a pas d’avantages au cinéma numérique, mais je dis qu’il y a aussi des problèmes. Et pire encore, des problèmes qui sont hors de notre contrôle et qui nous font paraître incompétents.

Nous employons des projectionnistes parfaitement formés au cinéma Astor, vous savez, le genre qui ont plus de 20 ans d’expérience chacun, qui avaient une licence de projectionniste (à l’époque où ce genre de chose existait), et si une bobine de film venait à casser, ou que le projecteur avait besoin de maintenance, ou si une lampe devait être changée, ils étaient qualifiés et capables de résoudre le problème sur le champ.

Avec le numérique cependant, il n’existe pas de compétence dans la résolution des problèmes : cela nécessite avant tout des appels téléphoniques, des e-mails et des délais. Le fait que moi, qui n’ai reçu que la formation la plus élémentaire et la plus théorique en projection, je sois capable d’être une partie de la solution à un problème, démontre clairement comment l’industrie s’est éloigné de l’essence même du média cinéma.

Nous ne disons pas que le numérique c’est le mal, mais nous voulons que vous sachiez ce qui est en jeu. L’industrie du cinéma est déterminée à retirer les pellicules de la circulation, ils déclarent ouvertement qu’il n’y aura plus de pellicules dans le circuit de distribution cinématographiques dans quelques années. Il existe déjà des cas aux Etats-Unis où certains studios ont refusé d’envoyer des bobines de films 35 mm aux cinémas. La pression mise sur les cinémas indépendants pour, dixit, se convertir au numérique est un sujet qui mérite toutefois un autre billet, mais une autre fois.

Ce que j’aimerais vous apporter ici, c’est notre ressenti de la nuit dernière : l’industrie cinématographique est en train de changer et ce changement nous fait aujourd’hui perdre le contrôle. Nous sommes en relation avec vous, notre public, mais j’ai l’impression que quelqu’un essaie de nous séparer. Nous voulons continuer à vous donner l’expérience que vous attendez et que vous méritez quand vous venez dans notre cinéma, et nous voulons que vous sachiez que, même si on ne peut pas vous promettre que cela ne se reproduira pas, nous ferons tout ce qui est en notre pouvoir pour continuer à nous battre pour cette relation, et le premier pas pour réparer les dégâts causés par la nuit dernière est d’être honnête sur ce qui s’est passé, et pourquoi cela s’est passé ainsi.

Ecrit par Tara Judah pour le cinéma Astor.

Notes

[1] Crédit photo : Thomas Hawk (Creative Commons By-Nc)




Ce que le libre apporte à la plus ancienne religion du livre

Croire ou être de telle ou telle religion c’est d’abord s’inscrire dans son histoire et sa tradition. C’est aussi évidemment la vivre et l’éprouver au sein de sa communauté dans le temps présent de son propre chemin personnel et spirituel. On puise dans le passé, dont subsistent ici avant tout des traces écrites, pour s’y forger individuellement et collectivement hic et nunc sa propre connaissance et expérience des choses.

Ce double mouvement peut être favorisé ou au contraire freiné par le contexte social et culturel d’une époque.

C’est ici que le Libre peut éventuellement trouver sa place, comme en témoigne cet entretien avec Aharon Varady, à l’initiative d’un projet original et probant autour du judaïsme[1].

Josh Evnin - CC by-sa

Le potentiel et les promesses du judaïsme open source

The Potential and Promise of Open-Source Judaism

Alan Jacob – 12 juin 2012 – The Atlantic
(Traduction Framalang : Goofy, Lamessen, Isammoc, pbegou, Hikou, Aa)

L’effort pionnier d’une communauté pour rendre ses matériaux de culte plus largement disponibles et adaptables.

Les nouvelles technologies sont naturellement et généralement controversées, mais sans doute nulle part autant qu’au sein des communautés religieuses. Pour de nombreux chefs religieux (et leurs disciples), les nouvelles technologies de l’information sont des produits corrosifs pour la vie en communauté : les méthodes traditionnelles sont sûrement meilleures. Pour d’autres, les nouvelles technologies offrent la possibilité d’étendre l’influence des institutions religieuses, d’attirer davantage de gens dans leur communauté.

On pourrait penser qu’une religion hautement traditionnelle comme le judaïsme – où les pratiques principales sont si anciennes et patinées par la coutume – resterait suspicieuse face à la technologie. Mais Aharon Varady ne le voit pas de cet oeil : pour lui, les technologies numériques peuvent venir soutenir les pratiques traditionnelles. Varady est un homme aux dons multiples qui, entre autres, dirige le projet Open Siddur. Un siddour est un livre de prière juif qui contient les prières quotidiennes, et le projet Open Siddur travaille à créer la première base de donnée complète de liturgie juive et d’oeuvres en lien avec la liturgie – et à fournir une plateforme en ligne pour que chacun puisse ajouter son propre siddour. De cette façon Varady espère « libérer le contenu créatif des pratiques spirituelles juives afin d’en faire une ressource commune destinée à être adoptée, adaptée, et redistributée par les particuliers et les groupes ». Pour lui, l’ouverture est la clef du succès du projet.

Je vois le projet Open Siddur comme une manière profondément réfléchie et innovante d’essayer de faire en sorte que les nouvelles technologies et la vie religieuse moderne se renforcent mutuellement, plutôt que d’être hostiles ou à contre-courant. J’ai donc proposé à Aharon de répondre à quelques questions sur les idées soutenant son travail, et il a accepté volontiers. Voici notre conversation.

Vous décrivez Open Siddur comme un projet sur la « religion open source » Que voulez-vous dire par là ?

Varady : Il y a quelques années, après avoir fondé le projet Open Siddur, j’ai pensé que je devrais écrire une déclaration sur mon site internet à propos de ce que je faisais. Pendant les six années précédentes j’avais travaillé en tant qu’urbaniste, donc quelques annonces devaient être écrites pour définir un contexte professionnel et permettre à d’anciens amis de me retrouver sur Google. Je voulais placer mon travail dans un contexte laïc plus large, parce que c’était indéniablement un projet juif et religieux. En même temps c’était un projet à rapprocher des « digital humanities », un projet de transcription collaborative, une concrétisation au XXIème siècle des idées posées au XIXème par William Morris, un projet de culture libre et de logiciel open source. J’ai donc écrit que je « faisais des recherches sur la religion open source en général, et en particulier, comment le mouvement de la culture libre peut aider à établir des passerelles entre la créativité et recherche de sens individuelles et la tradition et la pertinence culturelle ».

J’étais au courant de la façon dont Douglas Rushkoff et d’autres parlaient de la religion open source et je pensais que cela ne menait nulle part. (Un bon article existe sur Wikipedia qui résume leurs efforts). Je n’étais pas intéressé par la théorisation et la théologisation de nouvelles religions inspirées par l’esprit du mouvement open source. J’étais plutôt intéressé par la façon dont la culture libre et les stratégies des licences libres pourraient améliorer l’accessibilité et la participation au contenu créatif que j’ai hérité de mes ancêtres dans cette ère de transition d’un format analogique imprimé à un format digital indexé. Il me semblait à la fois évident et nécessaire de poursuivre la numérisation des oeuvres existantes dans le domaine public, et d’élargir le réseau d’étudiants, de chercheurs, de praticiens, et des communautés qui déjà adoptaient, adaptaient et distribuaient leur inspiration créative et leur savoir… mais qui le faisaient seulement par le canal très restrictif d’oeuvres sous copyright.

La problématique essentielle est de savoir comment garder un projet collaboratif comme le judaïsme culturellement vivant, à une époque où le travail créatif des participants du projet – prières, traductions, chants etc. – sont immédiatement restreints dans leur réutilisation créative par un « tous droits réservés ». Le fait est que l’engagement profond dans les projets collaboratifs n’est pas seulement limité par des problèmes technologiques : ceux-ci peuvent et ont été surmontés. Il est limité par une conception juridique qui fait l’hypothèse que les créateurs seraient intéressés avant tout par la propriété de leurs oeuvres.

En utilisant la culture libre et les licences libres, n’importe qui souhaitant participer au judaïsme (ou à n’importe quelle religion) comme à une culture vivante, collaborative et créative, peut le faire. Il existe des licences spécifiques exploitant le copyright pour assurer aux artistes, aux auteurs, aux traducteurs etc, que leur travail leur sera attribué et restera partagé jusqu’à son entrée dans le domaine public. Cela parce qu’aux États-Unis et dans de nombreux autres pays, la fin du copyright se situe à la mort du créateur, plus 70 ans. Pour les travaux destinés à être utilisés par une culture, adaptés à différents contextes, c’est trop long. Le résultat est que beaucoup d’œuvres éphémères, imprimées ou numériques, ne sont pas partagées, ont une distribution très limitée et entrent dans le domaine public dans une complète obscurité, inconnues et oubliées.

Y a-t-il des formes contrastées de, si l’on peut dire, la religion propriétaire, comme pour le code propriétaire ?

Varady : Je le pense, mais dans ma réflexion la question de savoir si une religion réfléchit sur ses propres contenus intellectuels et créatifs comme à une propriété me fait vraiment me demander si c’est une religion ou une sorte de culte d’entreprise. Si vous croyez vraiment que vous avez une sagesse éclairée et une pratique pour la suivre, ne voudriez-vous pas chercher les moyens les plus larges pour partager cette connaissance et par cela changer le monde ? Il y a des groupes dont le business model consiste à soumettre leurs adhérents à une sorte de redevance progressive pour être initiés à leurs connaissances qu’il est interdit de divulguer, Mais il y a d’autres groupes qui souhaitent avant tout ce que ces connaissances puissent être ensuite redistribuées ou partagées.

Pour moi, le problème est que sous le régime du copyright, c’est la situation où tous les gens qui participent à des projets collaboratifs se trouvent. Ils créent une œuvre et par défaut elle n’est pas disponible pour que d’autres la réutilisent à des fins créatives. Donc ce qui aurait pu être une collaboration devient une activité onéreuse de recherche et de négociation. À moins que nous n’ayons un professeur particulièrement éclairé, nous n’avons probablement jamais appris comment utiliser le copyright pour mieux partager nos idées. De bien des manières on nous enseigne que nos idées créatives sont des marchandises et c’est corrosif pour nos projets collaboratifs et leurs cultures. Je peux constater cette attitude même à l’intérieur des maisons d’éditions d’hétérodoxes établis. Là où j’aurais pu m’attendre à un empressement à fournir des moyens pour que le public adopte, adapte, remixe et diffuse ses idées, ils se voient eux-mêmes comme les intendants responsables de leur propriété intellectuelle. Les communautés religieuses sont-elles synonymes de places de marché passives peuplées de consommateurs dont l’expérience religieuse est déconnectée et aliénée de leur esprit créatif initial, ou peuvent-elles engager créativement leurs membres dans un mouvement visionnaire ? Cela engage vraiment la façon dont la religion est vue : est-ce un projet collaboratif ou une sorte de performance artistique passive à observer ?

Les cultures doivent respirer la créativité, comme nous respirons de l’oxygène, et pour que chaque culture reste en vie, ses membres doivent être autorisés à faire preuve de créativité, non pas comme des artistes solitaires, mais comme des penseurs engagés fabriquant la pensée avec les outils de création dont ils ont hérités et qui leur ont été partagés.

Les modèles open-source que vous avez développés sont ils spécifiquement importants pour la pratique du judaïsme ? Est-ce qu’une religion comme le judaïsme qui est si profondément connectée à sa propre histoire de textes bénéficie par des voies particulières des ressources que vous avez développées ?

Varady : Nous ne développons pas de nouveaux modèles. Nous utilisons plutôt les moyens légaux existants pour partager un travail créatif selon les modalités de copyright introduites par la culture libre et le mouvement open source. La loi juive a été aux prises avec les problèmes liés à la propriété intellectuelle depuis que les technologies de reproduction textuelle contribuent à marchandiser ce qui était autrefois une tradition orale qui s’appuyait sur l’attribution et le soutien de la communauté aux chercheurs d’élite et aux érudits. Je dirais que notre projet met en avant un modèle de collaboration à l’époque numérique, où le coût de reproduction peut être réduit à zéro, et où le coût de distribution est limité seulement par notre désir et nos intentions de partager.

Chaque projet – qu’il soit initié par une petite organisation à but non-lucratif ou par une civilisation vieille de 3500 ans – bénéficierait de la numérisation de ses archives. Ces archives sont vastes et en grande partie dans le domaine public, mais seulement une fraction a été transcrite, et une partie encore plus réduite a vue ses données sémantiques formatées dans un standard ouvert compatible avec d’autres projets de « digital humanities » . C’est sur cela que nous travaillons pour la littérature informée et inspirée par la pratique spirituelle juive. Cela ne diminue pas l’importance de l’art d’interprétation, de la forme des polices de caractères, ni des pièces principales de l’art littéraire – J’adorerais que notre projet puisse aider à réhabiliter toutes ces oeuvres.

Y a-t-il d’autres éléments de la foi et de la pratique juive qui font de votre projet un bon point pour elle ?

Varady : Tefillah – et les formes diverses de la pratique spirituelle juive – sont de parfaits éléments de mon point de vue. D’une part, la pratique elle-même se situe à l’intersection entre la tradition reçue, la diversité des coutumes locales ayant évolué à travers l’histoire juive, et l’intimité de l’expérience et des pensées découvertes de manière personnelle. Ce sont des textes et de l’art : les liturgies, les commentaires, et les traductions sont les contenus créatifs dont nous avons hérités. La pratique régulière du tefillah, ainsi que de toute autre pratique intégrale, suppose que dans la structure prévue, les pratiquants développent une relation profonde et durable avec une partie d’eux-même qui suggère l’acquisition d’une connaissance plus large.

Permettre aux pratiquants de fabriquer leurs propres outils personnalisés pour développer cette relation, respecte à la fois la tradition dont ils ont hérités et la rigueur que leur propre chemin demande. En donnant les ingrédients aux gens pour fabriquer leur propre livre de prière, pour maintenir et peut-être partager via une base de données en ligne de prières, j’espère qu’ils seront capables de s’engager dans leur pratique d’une façon qui respecte honnêtement l’intégrité de la voix profondément enfouie en eux, tout en respectant l’authenticité des nombreuses autres voix qui leur parlent à travers la vaste histoire et la culture profondément créative dans laquelle ils sont immergés. Il est parfois difficile de percevoir cette dimension de l’histoire et de la créativité en regardant une page d’un livre de prières en noir et blanc. La voir, cependant, est une libération, et aide à amener les gens à un stade de compréhension qui je l’espère révèlera mieux la tradition orale à travers la tradition écrite.

Est-ce que la foi juive et sa pratique posent des challenges particuliers pour ce type d’outils collaboratifs en ligne que vous développez ? Je pense à tous les défis depuis les problèmes techniques – des navigateurs internet qui ne peuvent pas lire les textes hébreux, par exemple – jusqu’aux problèmes qui découlent des pratiques particulières des communautés juives et de leurs besoins.

Varady : Quand j’ai commencé à rêver de ce projet en 2000, j’étais un programmeur open source en Perl à Philadelphie qui voulait son siddour personnalisé et j’ai pensé que ça serait plus facile de faire ce travail si je trouvais d’autres personnes pour collaborer avec moi. Et j’ai trouvé des gens, rapidement. Ce que nous avons découvert, c’est qu’indépendamment de notre passion pour le projet, il n’existait pas encore d’encodage standard pour les voyelles en hébreu, pour la cantillation, ni les marques de ponctuation. Nous avons dû attendre jusqu’en 2006, lorsque le projet Unicode a encodé et fixé tous ces signes diacritiques. Il y avait eu quelques années auparavant une fonte numérique développée et partagée sous licence libre qui soutenait le nouvel encodage unicode et qui avait correctement positionné toutes ces marques diacritiques (Ezra SIL SR). Il s’est encore passé quelques années avant qu’un éditeur de texte hors-ligne open source puisse traiter l’écriture de droite à gauche avec un positionnement correct des diacritiques (Libre Office). Avec certaines avancées dans les navigateurs internet il devint possible d’utiliser n’importe quelle police dans un navigateur. Les libres Mozilla Firefox et Chromium (Google Chrome) ont été les premiers navigateurs à intégrer les polices en hébreu avec un positionnement correct des diacritiques. Je maintiens un site internet où nous repérons quels navigateurs restent en échec sur ce sujet.

Et ce n’est que l’hébreu. Notre projet a l’intention de soutenir la localisation dans tous les langages où des oeuvres liturgiques et para-liturgiques juives ont été créées. Cela inclut d’autres langues qui s’écrivent de droite à gauche, comme l’arabe, le persan et l’amharique. Ce que nous aimerions particulièrement avoir est un outil d’OCR open source qui peut scanner et transcrire le texte hébreu et ses diacritiques avec une très grande précision. Sinon, nous aimerions avoir un outil qui peut appliquer des diacritiques hébraïques fondées sur un ensemble de règles et un glossaire d’exceptions.

À ce jour, nos défis ont été complètement technologiques (k’ayn ayin hara), et dans une moindre mesure nous avons rencontré tous les problèmes typiques d’une start-up open source : attirer et cultiver une communauté de bénévoles passionnés avec des niveaux d’expérience et d’expertise différents. Je suis vraiment intéressé par le soutien que ce projet a reçu de la part de la communauté juive. Bien sûr, je voudrais voir un soutien plus clairement affirmé à la culture libre et aux stratégies open source de la part de consultants dans le monde de l’éducation juive, ainsi que davantage de demandes de la part de philanthropes pour que les dollars qu’ils dépensent pour financer des projets culturels ou communautaires soient conditionnés à ce que les sources des projets soient partagées avec des licences libres. C’est logique pour moi, mais les financiers ne comprennent pas pour l’instant que des sommes importantes sont gaspillées par des projets culturels qui ont dépensé de l’argent pour du travail que d’autres bailleurs de fonds ont déjà payé mais qui n’ont pas été explicitement partagés ou diffusés avec des licences libres.

Notre projet est sans doute l’avocat le plus visible pour la culture libre et les licences libres et je suis heureux de voir d’autres projets techniques éducatifs juifs qui ont déjà compris et utilisent l’open source (voyez l’application PocketTorah, et le projet Sefaria en développement). Ce n’est pas un raz de marée, mais c’est un démarrage important. Les projets les plus faciles pour collaborer sont d’autres projets libres comme la Wikisource en hébreu. Il n’y a pas de compétition lorsque nous sommes tous en train de collaborer.

À la demande d’Aharon, cette interview est publiée sous licence Creative Commons BY 3.0.

Notes

[1] Crédit photo : Josh Evnin (Creative Commons By-Sa)