Et si la « catastrophe » Windows 8 profitait aux jeux sous Linux ?

On le sait, le manque de jeux disponibles nativement sous GNU/Linux est l’un des freins à sa massive adoption.

L’arrivée de Windows 8, prochain système d’exploitation de Microsoft, peut pourtant (et paradoxalement) changer la donne. Non seulement la nouvelle interface Metro risque d’en déstabiliser plus d’un mais en plus le contrôle accru des applications via le futur « Windows Store » pourrait pousser de plus en plus d’éditeurs de logiciels à s’intéresser aux alternatives libres et ouvertes.

C’est ainsi que le très respecté concepteur de jeux vidéos Gabe Newell a récemment décidé de joindre la critique à la pratique en portant par précaution plusieurs titres sous GNU/Linux (dont le célèbre Left 4 Dead 2).

Espérons que cette heureuse initiative ne reste pas isolée…

Comedy Nose - CC by

Newell de Valve : Windows 8, « la catastrophe » qui pousse Valve à supporter Linux

Valve’s Newell: Windows 8 “catastrophe” driving Valve to embrace Linux

Peter Bright – 25 juillet 2012 – ArsTechnica
(Traduction Framalang : Lolo le 13, esperolinuxien, Amine Brikci-N, ZeHiro, Martin)

Le portage de Steam sur Linux est une protection contre l’échec de Windows 8.

Le directeur de Valve – ancien employé de Microsoft – Gabe Newell a qualifié Windows 8 de « catastrophe pour tout le monde, qu’on soit acteur ou utilisateur de PC » lors d’une conférence consacrée aux jeux vidéos, le Casual Connect à Seattle. Le PDG de Valve a poursuivi en indiquant que, en conséquence de l’apparition de Windows 8, « nous allons perdre une partie des PC/OEM, qui quitteront le marché. Je pense que les marges vont être réduites à néant pour un nombre certain d’entreprises ».

Gabe Newell fait valoir que l’un des derniers éléments qui empêchent les gens de passer sous Linux est le manque de jeux. Valve travaille actuellement à porter Left 4 Dead 2 et d’autres titres Steam sous Linux, dans une dynamique que Newell décrit comme une « stratégie de couverture ». Si ses prédictions sur Windows 8 se vérifient, il déclare qu’il « sera bon d’avoir des alternatives pour se protéger contre cette éventualité. »

La piètre opinion que Newell porte sur le prochain système d’exploitation majeur de Microsoft est connue depuis quelques temps. Quand Michael Larabel de Phoronix a visité le campus de Valve à Bellevue, dans l’état de Washington, en avril de cette année pour prendre connaissances des efforts de la société à porter Steam sur Linux, il avait indiqué que la « vision négative de Newell pour Windows 8 et l’avenir de Microsoft était impressionnante ».

Newell n’est pas une tierce partie désintéressée. Valve tire de l’argent des commissions qu’il prend sur les ventes de Steam. Windows 8, avec son « Windows Store » intégré, concurrence cette source de revenus. Des fonctionnalités, comme une intégration au Xbox Live, pourraient rendre le « Windows Store » et Windows 8 plus attrayants pour les joueurs et les développeurs, au détriment de Steam.

Cependant, l’autre aspect de ce « Store » – sa nature fermée et contrôlée – l’inquiète également. Il a attribué le succès de Valve à la nature ouverte du PC, indiquant que cette société « n’existerait plus » sans le PC ou sans « l’ouverture de la plateforme ». Cette ouverture est aujourd’hui menacée. Newell affirme qu’il existe une « forte tentation » à fermer la plateforme, car les développeurs « voient ce qu’il peuvent tirer de celle-ci lorsqu’ils en limitent l’accès à la concurrence, et ils se disent C’est vraiment excitant ».

Crédit photo : Comedy Nose (Creative Commons)




Comment ouvrir 4 millions de chambres d’hôtel en quelques lignes de code

Nous avons consacré un billet à la (merveilleuse) histoire du libre circuit imprimé Arduino.

Puis, tout récemment, nous avons mis en exergue une conférence TED de l’un de ses créateurs qui s’enthousiasmait de la diversité et originalité des projets dérivés d’Arduino.

Il aurait pu ajouter celui-ci…

PS : Alors, Ritz ou Carlton cet été pour les vacances ?

Cory Doctorow - CC by-sa

Un hacker « black hat » peut ouvrir 4 millions de chambres d’hôtel grâce à un microcontrolleur Arduino

Black Hat hacker gains access to 4 million hotel rooms with Arduino microcontroller

Sebastian Anthony – 25 juillet 2012 – ExtremeTech
(Traduction Framalang : esperolinuxien, ZeHiro, Martin)

Mauvaise nouvelle: Pour moins de 50$ de matériel et un petit peu de programmation, un hacker peut ouvrir, instantanément et sans laisser de trace, des millions de chambres d’hôtel protégées par une carte-clé.

Ce hack a été présenté par Cody Brocious, un développeur de chez Mozilla, à la « Black Hat Security Conference » de Los Angeles. 4 millions de chambres d’hôtel sécurisées par les serrures programmables à carte vendues par Onity sont menacées. Selon Bocious, que l’on devrait réprimander pour ne pas avoir divulgué le hack à Onity avant de le rendre public, il n’y a pas de correction facile par une mise à jour du firmware. Si les hôtels veulent sécuriser les chambres de leurs clients, chaque serrure devra être changée.

Le hack est entièrement détaillé sur le site internet de Borcious, mais en quelques mots : à la base de chaque serrure Onity se trouve un petit port alimentation DC (simplement identique à celui de votre vieux téléphone Nokia). Ce port est utilisé pour recharger la batterie de la serrure, et pour programmer cette dernière avec le « sitecode » de l’hôtel – une clé 32-bit identifiant celui-ci. En connectant un microcontrolleur Arduino dans le port DC, Brocious a trouvé qu’il pouvait simplement extraire cette clé 32-bit de la mémoire de la serrure. Aucune authentification n’est requise – et la clé est enregistrée à la même place dans chaque serrure Onity.

Le meilleur : en introduisant ce code 32-bit dans la serrure… elle s’ouvre ! D’après Brocious, 200 millisecondes sont simplement nécessaires pour lire le “sitecode” et ouvrir la serrure. « Je le branche, l’allume, et la serrure s’ouvre » confie Brocious. Sa mise en œuvre actuelle ne fonctionne pas avec toutes les serrures, et il ne compte pas mener plus loin ses investigations, mais ses documents de recherche prouvent de manière très claire que les serrures Onity, assez ironiquement, ne disposent même pas de la sécurité la plus élémentaire.

J’aimerais pouvoir dire que Brocious a consacré des mois à ce hack, pratiquant une rétro-ingénierie minutieuse du protocole des serrures Onity, mais la vérité est bien plus triste. « Avec cette simplicité enfantine, je ne serais pas surpris si un millier d’autres personnes avait trouvé la même vulnérabilité et l’avais vendue à d’autres gouvernements » déclare Brocious, dans une interview accordée à Forbes. « Un stagiaire à la NSA pourrait trouver cela en cinq minutes. »

C’est de cette manière qu’il justifie la divulgation au public de la vulnérabilité : si les agences de sécurité et les milices privées ont déjà accès à des millions de chambres d’hôtel, alors de cette manière Brocious contraint Onity a corriger son erreur. Informer le public signifie aussi que nous pouvons trouver d’autres méthodes pour sécuriser nos chambres – avec des chaînes ou des verrous blindés à l’intérieur des chambres par exemple.

Concernant la justification d’Onity pour un tel manquement à la sécurité, personne ne sait. Généralement, tant que les affaires roulent, sécuriser un système est une dépense inutile – jusqu’à ce que celui-ci soit hacké. Ce genre de vulnérabilité n’a rien d’extraordinaire venant d’une entreprise traditionnelle – en général, une entreprise n’embauche un spécialiste de la sécurité qu’après avoir connu un hack surmédiatisé. Pour une entreprise dont le rôle est de sécuriser le sommeil de millions de personnes chaque nuit, Onity aurait pu faire preuve d’un peu plus de précautions.

Crédit photo : Cory Doctorow (Creative Commons By-Sa)




Défaite humiliante et définitive d’ACTA au Parlement européen !

ACTA : Victoire totale pour les citoyens et la démocratie ! nous annonce La Quadrature du Net qui n’est pas pour rien dans ce résultat (et qui mérite notre plein soutien).

Ce n’est qu’un début… mais en attendant, nous nous associons à la joie du moment avec cette traduction du pirate Rick Falkvinge.

ACTA 4th July

VICTOIRE ! ACTA subit une défaite humiliante et définitive au Parlement européen

VICTORY! ACTA Suffers Final, Humiliating Defeat In European Parliament

Rick Falkvinge – 4 juillet 2012 – Site personnel
(Traduction Framalang : Ypll, Goofy, Martin)

Aujourd’hui à 12h56, le Parlement européen avait le choix entre le rejet final d’ACTA et la poursuite de l’incertitude. Par un vote écrasant, 478 à 39, le Parlement a décidé de rejeter ACTA une bonne fois pour toutes. Cela signifie que ce traité trompeur est maintenant mort au niveau mondial.

C’est un jour de fête. C’est le jour où les citoyens d’Europe et du monde ont vaincu les bureaucrates non élus, qui étaient courtisés par le lobby des plus riches entreprises de la planète. Le champ de bataille n’était pas un quelconque bureau dans une administration mais les représentants du peuple – le Parlement européen – qui ont finalement décidé de faire leur travail en beauté, et de représenter le peuple contre les intérêts particuliers.

La route vers cette victoire fut sombre, difficile, et en aucun cas sûre.

ACTA 4th July

Illustration : Le vote final sur ACTA au Parlement européen : 39 pour, 478 contre.

Comment en sommes-nous arrivés là ?

Il y a six mois la situation semblait très sombre. Il semblait certain qu’ACTA passerait en silence et dans l’indifférence totale. Les forces défendant les droits des citoyens ont essayé de le faire passer devant la Cour européenne de justice pour tester sa légalité et pour gagner un peu de temps. Et là, quelque chose s’est produit.

Un monstre du nom de SOPA est apparu aux États-Unis. Des milliers de sites web se sont couverts de noir le 18 janvier et des millions de protestations se sont exprimées, laissant le Congrès en état de choc devant l’ampleur de la colère populaire contre certains intérêts privés. SOPA en est mort.

Dans ce sillage, comme les citoyens s’étaient rendus compte qu’ils n’avaient pas besoin d’accepter de tels abus d’entreprises sans broncher et en tendant l’autre joue, la communauté a braqué ses projecteurs sur ACTA. La lutte a continué en beauté pour vaincre ce monstre. Début février, il y a eu des manifestations dans toute l’Europe, laissant le Parlement européen tout aussi choqué.

Les partis politiques ont changé d’avis et proclamé leur opposition à ACTA en solidarité avec les manifestions citoyennes sur tout le continent, après avoir compris à quel point cette législation étaient commandée sans aucune honte par des entreprises complices qui pensaient que c’était déjà fait. Ils ont essayé, retenté, et forcé jusqu’à aujourd’hui, de reporter le vote d’ACTA pour qu’il se passe dans la plus grande indifférence du public et des activistes.

Hélas, ils ne comprennent pas le Net. Et il y a un point clé ici : le Net n’oublie jamais.

Mais le message à retenir ici, c’est que nous, les activistes, avons fait ça. Tout le monde au Parlement européen se relaie pour rendre hommage à tous les activistes partout en Europe et dans le monde, qui ont attiré leur attention sur le fait que c’était une vraie saleté, que ce n’était pas une proposition à approuver comme les autres, mais en fait une proposition de législation réellement dangereuse. Tout le monde remercie les activistes pour cela. Oui, vous. Vous devriez vous pencher en arrière, sourire et vous filer des tapes dans le dos. Chacun d’entre nous a de très bonnes raisons d’être fier aujourd’hui.

Et maintenant ?

En théorie, ACTA pourrait toujours s’appliquer entre les États-Unis et plusieurs États de plus petite taille. Dix États étaient en négociation, et six d’entre eux doivent le ratifier pour qu’il entre en vigueur. En théorie, cela pourrait devenir un traité entre les États-Unis, le Maroc, le Mexique, la Nouvelle Zélande, l’Australie et la Suisse. (Mais attendez, le Sénat mexicain a déjà rejeté ACTA. Tout comme l’Australie et la Suisse, en pratique. Eh bien… alors un traité entre les États-Unis et le Maroc, dans l’éventualité peu probable que les États-Unis le ratifient réellement et formellement. Vous voyez l’issue qui se dessine.)

Comme il était expliqué précédemment sur TorrentFreak, sans le soutien de l’Union européenne, ACTA est mort. Il n’existe pas.

Le Commissaire européen responsable du traité, Karel de Gucht, a déclaré qu’il n’allait tenir compte d’aucun rejet et le re-soumettre au Parlement européen jusqu’à son adoption. Cela n’arrivera pas. Le Parlement fait très attention à sa dignité et ne tolère pas ce genre de mépris, heureusement. C’est quelque chose d’assez nouveau dans l’histoire démocratique de l’Union européenne – la première fois où j’ai vu le Parlement se battre pour sa dignité était pour le Paquet Télécom, quand la Commission a pareillement tenté de faire adopter de force la riposte graduée (au contraire, le Parlement a rendu cette riposte graduée illégale dans toute l’Union européenne).

Une bonne partie des dangers d’ACTA reviendra sous d’autres noms. Pour les lobbyistes, c’est le travail de sape ordinaire contre les pouvoirs, jusqu’à ce qu’ils cèdent. Juste un jour de boulot comme un autre. Nous devons rester vigilants contre les intérêts particuliers qui reviendront encore et encore à la charge, jusqu’à ce que nous nous assurions que la route législative leur soit complètement bloquée. Nous devons rester vigilants.

Mais pas aujourd’hui.

Aujourd’hui, nous fêtons un travail extraordinairement bien mené.

Aujourd’hui, le 4 juillet, l’Europe célèbre une journée d’indépendance vis-à-vis des intérêts particuliers américains.

Aujourd’hui, nous avons défendu nos droits les plus fondamentaux contre les géants de l’industrie, et nous avons gagné.

Félicitations à nous tous, et merci à tous les frères et les sœurs sur les barricades, partout dans le monde, qui ont rendu cela possible.

Geektionnerd - Simon Gee Giraudot - CC by-sa




Madame, Monsieur le Député, pourquoi il est important de faire le choix du Libre

Signal fort et beau symbole, en 2007 il avait été décidé de passer les postes des députés sous GNU/Linux Ubuntu et OpenOffice.org (cf ces témoignages). Arrive aujourd’hui le temps du renouvellement et les députés, fraîchement élu(e)s ou réélu(e)s, ont le choix du choix, avec Windows ou Ubuntu et Microsoft Office ou LibreOffice.

François Revol est un acteur bien connu de la communauté francophone du logiciel libre. Il fait ici acte de citoyenneté en prenant le temps d’adresser une lettre détaillée et personnalisée à son député sur ce sujet à ses yeux bien plus important qu’il n’y paraît. Nous vous invitons à vous en inspirer pour en faire de même, si vous partagez ses arguments et sa préoccupation.

Nous ne souhaitons pas qu’une assemblée nationale plus rose devienne moins libre.

Takato Marui - CC by-sa

Objet : Système d’exploitation de votre ordinateur

Madame, Monsieur le Député,

Si ce n’est déjà fait, et que personne n’a choisi à votre place, vous allez devoir prendre une décision très importante, que vous pourrez considérer comme anodine mais qui pourtant est cruciale.

Pour cette législature, conformément à la demande de la questure, vous avez le choix du système d’exploitation (SE) qui sera utilisé sur votre ordinateur. La législature précédente avait permis un énorme progrès par l’installation de GNU/Linux[1] sur toutes les machines des députés auparavant sous Windows, mettant ainsi à leur disposition un système plus éthique, plus économique, plus flexible, et participant à restaurer une certaine indépendance européenne dans le secteur du logiciel. Il semble au contraire pour cette législature, pour certaines raisons obscures et surtout exprimées bien tardivement, qu’il ait été décidé de vous laisser le choix. L’histoire dira, et surtout votre choix, si c’est un recul ou un progrès, et si vous avez usé sagement de ce qui pour beaucoup d’entre nous est encore un luxe, puisque précieux mais trop peu répandu.

En effet, malgré l’interdiction par la loi de la vente liée[2], le choix du système d’exploitation lors de l’achat d’un ordinateur par un particulier relève encore du plus rare des luxes, réservé aux seules entreprises. Si l’on en croit les revendeurs et fabricants, le particulier est simplement trop stupide pour faire un choix éclairé. L’excuse d’une complexité accrue de production est également caduque, les offres existantes pour les entreprises montrant la viabilité de proposition du choix. En fait il s’agit surtout de préserver des monopoles établis, ceux d’une entreprise américaine bien connue pour avoir été sanctionnée par la Commission européenne pour cette même raison.

Pourtant le choix du système d’exploitation est important à plusieurs titres, même en laissant l’éthique de côté, ayant même des conséquences sur la relocalisation d’emplois.

Ainsi par exemple le choix d’un SE libre permet, en plus de répondre aux questions d’indépendance, d’interopérabilité, et d’adaptabilité, de générer une activité de développement logiciel locale nécessaire à une adaptation au plus près des besoins, adaptation impossible avec du logiciel propriétaire qui dépend entièrement du bon vouloir de l’éditeur. En effet, le logiciel libre, par essence, est distribué avec son code source et la liberté de modification, permettant ainsi la création et la mise en concurrence d’expertises non subordonnées à l’éditeur original. La mutualisation des coûts de production des logiciels libres participe aussi de la création de biens communs. Comme nombre de sujets connexes liés au numérique, le logiciel libre transcende donc le bipartisme.

Certains d’entre vous ont d’ailleurs signé le Pacte Logiciel Libre lors de la campagne, d’autres lors de précédentes législatures ont voté pour ou contre certains projets de loi dommageables au logiciel libre, comme DADVSI ou HADOPI, créant ainsi du tracas y compris à des universitaires français, comme les auteurs du logiciel de lecture vidéo VLC, obligés de demander à la HADOPI comment contourner les DRM[3] du BluRay. La HADOPI n’a d’ailleurs pas été d’une grande utilité pour résoudre la violation de la licence de FFmpeg/LibAV, logiciel libre auquel j’ai modestement contribué, commise par un sous-traitant d’Orange4 pendant plus d’un an. Il s’agit pourtant ici également de protection des auteurs. Il est intéressant de plus de noter qu’Orange comptait parmi les fiers sponsors officiels de l’inutile sommet « eG8 » où la question de la protection des auteurs a été abordée. La Commission européenne n’étant d’ailleurs pas en reste, tant par sa tentative de faire adopter le traité ACTA[4] que la directive sur le brevet unitaire qui bien qu’utile sur le principe laisse entrer le logiciel dans le champ de la brevetabilité, ce qui ne saurait être plus grotesque puisque le logiciel est une expression de la pensée humaine et donc naturellement sous le régime du droit d’auteur.

Tous ces problèmes ont en commun le manque de considération des « acteurs », entreprises – pourtant grandes utilisatrices de logiciel libre – comme législateur. Ceci vient autant de la perception erronée de l’informatique comme un sujet purement technique et économique, que des effets de la vente liée, effets devenant rétroactivement causes de renforcement des monopoles. Le grand public est en effet gardé dans l’ignorance, croyant que le choix qui est fait pour lui est dans son intérêt, que « ça marche comme ça », et que « Linux ça marche pas », ce qui dans la plupart des cas est dû au manque de support matériel, lui-même résultant de l’indisponibilité des spécifications techniques du matériel, puisque bien sûr les fabricants préfèrent distribuer plutôt des pilotes pour Windows que les spécifications, qui sont pourtant le « manuel utilisateur » du matériel par le logiciel et devraient être publiques, ceci étant justement la conséquence du monopole déjà évoqué.

L’ironie de la situation étant que même Microsoft a été victime de cet état de fait, puisque lors de la sortie de Windows Vista, certains périphériques fournis uniquement avec des pilotes pour les versions précédentes de Windows n’étaient plus utilisables, mettant ainsi en colère les utilisateurs devant néanmoins acheter Windows Vista avec leur nouvelle machine, sans toutefois pouvoir utiliser certains périphériques pourtant neufs mais dont le fabricant refusait de fournir un pilote mis à jour.

Quand aux très rares matériels « certifiés Linux » disponibles, ils sont généralement seulement sommairement testés une fois pour toute certification, et de plus vraiment un « luxe » au vu des prix pratiqués.

Malgré des campagnes d’information au public de la part d’associations de promotion du logiciel libre comme l’April ou l’AFUL, ainsi que plusieurs procès gagnés par des particuliers, l’inaction de la DGCCRF est manifeste, et le status quo demeure depuis maintenant plus d’une décennie.

En effet, le problème de la vente liée, loin d’être récent, est par exemple une des causes majeures de la fermeture en 2001 de Be, Inc., éditeur du système d’exploitation BeOS, que j’ai utilisé pendant 10 ans. Déjà à l’époque Microsoft s’imposait sur les ordinateurs PC par le verrouillage du processus de démarrage, et en interdisant aux revendeurs par des contrats secrets d’installer un autre SE, la seule tentative de Be, Inc. de fournir des ordinateurs pré-installés avec son système ayant été torpillée, Hitachi se contentant alors de laisser BeOS sur le disque dur mais sans le rendre disponible au démarrage, ni même documenté et donc de facto inaccessible.

Plus tard, un éditeur de logiciel allemand ayant tenté de reprendre le développement de ce même système a également dû fermer, toujours par manque de ventes et à cause du monopole de fait de Microsoft sur le marché, me causant au passage un licenciement économique.

C’est d’ailleurs l’échec commercial de BeOS qui a conduit à la création du système d’exploitation libre Haiku auquel je contribue actuellement, dans l’idée de perpétuer son originalité, comme on tenterait de préserver une espèce nécessaire à la technodiversité. Pourtant, même si c’est un projet plus ludique que commercial à l’heure actuelle, la vente liée nous pose problème tout comme aux auteurs de Linux. En effet, la non disponibilité des spécifications matérielles chez certains fabricants et de nombreux constructeurs rend impossible l’écriture des pilotes de périphériques pourtant nécessaire à leur utilisation.

Cet état de fait est d’ailleurs une régression. En effet à une certaine époque la plupart des machines électroniques (téléviseurs, électrophones, mais aussi ordinateurs) étaient livrées avec les schémas complets. J’ai ainsi par exemple, dans le manuel utilisateur de mon premier ordinateur (un ORIC Atmos), la description de son fonctionnement interne et toute la documentation permettant d’interfacer du matériel, et l’importateur avait même publié les plans. L’obsolescence programmée a pris le pas depuis lors.

Ce luxe donc, auquel vous avez droit, m’a été refusé à l’achat de mon dernier ordinateur portable. Non seulement le fabricant refuse de rembourser la licence de Windows 7 que je n’ai jamais demandée, mais il ne m’a toujours pas communiqué les spécifications nécessaires à l’adaptation du système que je désire utiliser et auquel je contribue. J’en suis donc réduit lorsque je tente de l’utiliser actuellement à une résolution graphique inférieure à ce que l’écran permet et sans aucune accélération matérielle, pas de connexion réseau, et l’impossibilité de produire du son, sans parler des fonctions moins essentielles, que pourtant j’ai payées. Pourtant, ainsi que je l’ai dit, ces spécifications constituent le « manuel utilisateur » du matériel par le logiciel, et forment donc en ce qui me concerne, des «caractéristiques essentielles »[5]. D’ailleurs, cette même machine avec GNU/Linux que j’utilise également cause régulièrement des problèmes pour la même raison, à savoir la non disponibilité des spécifications qui empêche la correction d’un bogue du pilote vidéo pourtant documenté depuis plus d’un an.

La vente liée cause du tort également à des éditeurs français, comme Mandriva, qui publiait une distribution de GNU/Linux depuis 1998, initialement appelée « Mandrake Linux », que j’ai d’ailleurs un temps utilisée, mais n’a pas réussi à s’imposer et a donc disparu récemment. On ne peu que déplorer le résultat de cette concurrence pas vraiment libre et certainement faussée.

Et pourtant le logiciel libre permet de développer de nombreux [modèles économiques différents|http://www.april.org/livre-blanc-des-modele-economiques-du-logiciel-libre], ouvrant des perspectives d’emploi pour des PME innovantes, si la loi ne le défavorise pas.

Par ces temps de crise, il ne serait d’ailleurs pas inutile de s’intéresser aux optimisations fiscales, pour ne pas parler d’évasion, que certaines entreprises multinationales pratiquent, Microsoft en premier mais également Apple. L’absence de détail des prix lors de la vente liée pose d’ailleurs des questions légitimes quand à la répartition de la TVA.

La pratique par Microsoft du verrouillage du processus de démarrage, que j’évoquais plus haut à propos des PC, est d’ailleurs toujours d’actualité puisque bien évidemment les prochaines tablettes « compatibles Windows 8 » devront implémenter obligatoirement le mécanisme dit « SecureBoot », qui au prétexte de limiter les virus rendra totalement impossible l’installation d’un système libre. Et donc alors même que le combat contre la vente liée s’éternise sur les PC, il est presque déjà perdu sur les machines qui les remplaceront bientôt, alors même que ce sont toujours des ordinateurs malgré tout, dont l’utilisateur devrait garder le contrôle, contrôle qui s’exprime en premier sur le choix des logiciels qu’il voudra pouvoir utiliser ou non.

Le choix d’installer Windows s’apparente ainsi plus au non-choix, à un blanc-seing laissé à Microsoft quand au contrôle de votre machine, avec la sécurité qu’on lui connaît. C’est aussi un choix de facilité, au vu de la situation actuelle, mais également la caution d’une situation inacceptable.

Le choix d’installer GNU/Linux, sur une machine de bureau, est avant tout moral et éthique avant d’être pragmatique, alors que sur un serveur il s’impose plus logiquement. C’est pourtant tout autant un choix de sécurité, puisque le code source ouvert garantit le contrôle que l’on a sur le système, comme l’absence de porte dérobée. C’est aussi un choix courageux et téméraire, par l’entrée dans ce qui reste encore une minorité technologiquement discriminée. Mais ce serait aussi un signal fort envers les développeurs qui créent ces logiciels, les utilisateurs confortés dans leur choix difficile, et enfin les fabricants de matériels qui pour certains encore n’ont pas compris qu’il était de leur devoir et de leur intérêt de considérer tous les utilisateurs.

Ne vous y trompez pas, la majorité des problèmes qui pourraient survenir lors de l’utilisation de GNU/Linux ne sont pas de son fait ou des développeurs qui l’ont écrit, mais bien de Microsoft, Apple, et d’autres éditeurs, qui par leur politique de fermeture compliquent inutilement l’interopérabilité entre leur système et les autres, à dessein bien sûr, puisque leur but est le monopole. D’ailleurs il est à prévoir des incompatibilités entre GNU/Linux et l’infrastructure choisie par la questure pour la gestion des courriels, à savoir Microsoft Exchange, bien connu pour ne respecter aucun standard hormis le sien, c’est à dire donc aucun, puisque les formats et protocoles d’Exchange ne sont en rien normalisés ni donc standard (de jure). Alors même que les logiciels de courriel de GNU/Linux respectent de nombreux standards et normes. Pour résumer, dire que GNU/Linux pose problème serait simplement inverser la situation causée par ces monopoles.

Une métaphore que j’utilise depuis des années sans succès, mais pourtant découverte aussi récemment par un juge, s’énonce ainsi :

« La vente liée d’un système d’exploitation avec un ordinateur revient à l’obligation d’embauche d’un chauffeur à l’achat d’une voiture. »

Ceci vous semble absurde ? À moi aussi. C’est pourtant la pratique actuelle.

En tant qu’ingénieur, auteur de logiciels libres, citoyen et électeur, ce sujet me tient à cœur, et il me semble nécessaire qu’au moins la législation actuelle soit appliquée, à défaut d’évoluer. J’espère vous avoir éclairé sur ce choix important qui vous incombe, non dénué de symbole, et qui je le rappelle est un luxe pour le particulier même informé. Je reste à votre disposition pour toute discussion.

Je vous prie d’agréer, Madame, Monsieur le Député, l’expression de ma considération la plus distinguée.

François Revol

Crédit photo : Takato Marui (Creative Commons By-Sa)

Notes

[1] Le système libre GNU fonctionnant sur le noyau Linux, lui aussi libre.

[2] Article L.122-1 du code de la consommation

[3] Digital Rights Management, en français MTP pour « Méthodes Techniques de Protection »

[4] Anti-Counterfeiting Trade Agreement, ou Accord commercial anti-contrefaçon (ACAC)

[5] Au titre de l’article L-111-1 I. du code de la consommation.




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.




Ce qui s’est passé la nuit dernière, dans un cinéma de Melbourne

Inauguré en 1936, L’Astor Theatre est un cinéma bien connu des habitants de Melbourne. En janvier dernier on y a programmé un film qui a bien failli ne pas être projeté.

Pourquoi ? Parce que le cinéma actuel est en train de faire sa « révolution numérique » et que comme on peut dès lors facilement copier un film, les distributeurs ont mis plus un système complexe de protection (l’équivalent des DRM pour la musique) qui peut s’enrayer et laisser les propriétaires des salles démunis et impuissants face au problème.

C’est le témoignage d’une des personnes qui gèrent le cinéma Astor que nous vous proposons ci-dessous[1].

Thomas Hawk - CC by-nc

Ce qui s’est passé la nuit dernière

What Happened Last Night

Tara Judah – 26 janvier 2012 – The Astor Theatre Blog
(Traduction Framalang : Antistress, Lamessen, Penguin, HgO, Étienne, ZeHiro, kabaka, Penguin, Lamessen)

Nous avons tous des nuits que nous préférerions oublier. Mais parfois, il est préférable d’en parler le lendemain matin. Et étant donné que nous avons une relation étroite (nous le cinéma, vous le public), c’est probablement mieux de vous dire ce qui s’est passé et, plus important, pourquoi ça c’est passé ainsi.

La nuit dernière nous avons eu un retard imprévu, non désiré et désagréable lors de notre projection de Take Shelter – la première partie de notre mercredi de l’horreur.

J’utilise les mots imprévu, non désiré et désagréable parce que nous aimerions que vous sachiez que c’était aussi désagréable pour vous que pour nous – et aussi que c’était quelque chose de totalement hors de notre contrôle. En tant que cinéma il y a de nombreux aspects de votre expérience que nous maîtrisons et qui sont sous notre responsabilité ; l’atmosphère des lieux lorsque vous vous rendez à l’Astor est quelque chose sur lequel nous travaillons dur et pour lequel nous déployons tout notre talent, même si là aussi de nombreux facteurs extérieurs entrent en jeu. Mais parfois ces facteurs extérieurs que nous essayons d’accommoder sont tels que la situation nous échappe et, par conséquent, tout ce que nous pouvons faire est d’essayer de corriger le problème du mieux que nous le pouvons et le plus rapidement possible.

Le paysage de l’industrie cinématographique change rapidement. La plupart d’entre vous le sait déjà parce que nous partageons avec vous ces changements sur ce blog. L’année dernière, nous avons ainsi installé un nouveau projecteur numérique ultramoderne, un Barco 32B 4K. Les raisons qui nous y ont conduit étaient multiples et variées. Qu’elles aient été endommagées voire détruites avec le temps, ou rendues, volontairement ou non, indisponibles par leur distributeurs, un nombre croissant de bobines 35 mm disparaît réduisant ainsi le choix de notre programmation (et je ne vous parle même pas des différents problèmes de droits de diffusion des films).

L’arrivée de la projection numérique et l’accroissement de la disponibilité de versions numériques des films cultes et classiques nous ont effectivement offerts quelques belles opportunités de vous présenter des films autrement confinés au petit écran (dont Taxi Driver, Docteur Folamour, South Pacific, Oklahoma ! et Labyrinthe, pour n’en citer que quelques uns). Les grands studios des industries culturelles sont donc en train de se diriger vers ce qui a été salué comme étant une « révolution numérique ». Le terme lui-même est effrayant. Tandis que la projection numérique possède de nombreux avantages, elle recèle également des pièges. Ce que nous observons en ce moment est le retrait des bobines de film de 35 mm en faveur de la projection numérique, le plus souvent au format DCP (Digital Cinema Package).

Or contrairement aux pellicules de 35mm qui sont des objets physiques, livrés en bobines et qui sont projetées grâce à un projecteur mécanique, les DCP sont des fichiers informatiques chargés à l’intérieur d’un projecteur numérique qui, par bien des aspects, se résume à un ordinateur très sophistiqué. Puisque le fichier est chargé dans le projecteur, le cinéma peut en conserver une copie ad vitam aeternam, s’il y a assez d’espace sur son serveur. C’est pourquoi, après avoir eux même engendré cette situation, les studios et les distributeurs verrouillent les fichiers pour qu’ils ne puissent être projetés qu’aux horaires planifiés, réservés et payés par le cinéma. Ceci signifie que chaque DCP arrivé chiffré que vous ne pouvez ouvrir qu’avec une sorte de clé appelée KDM (Key Delivery Message), Le KDM déverrouille le contenu du fichier et permet au cinéma de projeter le film. Il dépend évidemment du film, du projecteur du cinéma mais aussi de l’horaire, et n’est souvent valide qu’environ 10 min avant et expire moins de 5 min après l’heure de projection programmée. Mis à part le fait évident que le programme horaire des projections doit être précisément suivi, cela signifie aussi que le projectionniste ne peut ni tester si le KDM fonctionne, ni vérifier la qualité du film avant le début de la projection. Ce n’est à priori pas un probléme. Mais lorsqu’il y en a un…

Lorsqu’il y a un problème, nous obtenons ce qui s’est produit la nuit dernière.

Le KDM que nous avions reçu pour Take Shelter ne fonctionnait pas. Nous avons découvert cela dix minutes environ avant la projection. Comme nous sommes un cinéma, et que nous avons des projections le soir, nous ne pouvions pas simplement appeler le distributeur pour en obtenir un nouveau, car ils travaillent aux horaires de bureau. Notre première étape fut donc d’appeler le support téléphonique ouvert 24h sur 24 aux Etats-Unis. Après avoir passé tout le processus d’authentification de notre cinéma et de la projection prévue, on nous a dit que nous devions appeler Londres pour obtenir un autre KDM pour cette séance précise. Après avoir appelé Londres et avoir authentifié de nouveau notre cinéma et notre projection, on nous a dit qu’ils pouvaient nous fournir un autre KDM, mais pas avant que le distributeur ne l’autorise aussi. Cela voulait dire un autre délai de 5-10 minutes pendant que nous attendions que le distributeur confirme que nous avions en effet bien le droit de projeter le film à cet horaire. Une fois la confirmation reçue, nous avons attendu que le KDM soit émis. Le KDM arrive sous la forme d’un fichier zip attaché dans un mail, qui doit donc être ensuite dézippé, sauvegardé sur une carte mémoire et copié sur le serveur. Cela prend à nouveau 5-10 minutes. Une fois chargé, le projecteur doit reconnaître le KDM et débloquer la séance programmée. Heureusement, cela a fonctionné. Néanmoins, jusqu’à ce moment-là, nous ne savions absolument pas, tout comme notre public, si le nouveau KDM allait fonctionner ou non, et donc si la projection pourrait ou non avoir lieu.

Il ne s’agit que d’un incident dans un cinéma. Il y a des milliers et des milliers de projections dans des cinémas comme le nôtre à travers le monde, qui rencontrent les mêmes problèmes. Si nous avions projeté le film en 35 mm, il aurait commencé à l’horaire prévu. Le projectionniste aurait préparé la bobine, l’aurait mise dans le projecteur et alignée correctement avant même que vous vous ne soyiez assis, zut, avant même que nous n’ayions ouvert les portes pour la soirée. Mais c’est une situation que l’industrie du cinéma a créée et qu’elle va continuer de vendre comme étant supérieure au film 35mm.

Je ne dis pas qu’il n’y a pas d’avantages au cinéma numérique, mais je dis qu’il y a aussi des problèmes. Et pire encore, des problèmes qui sont hors de notre contrôle et qui nous font paraître incompétents.

Nous employons des projectionnistes parfaitement formés au cinéma Astor, vous savez, le genre qui ont plus de 20 ans d’expérience chacun, qui avaient une licence de projectionniste (à l’époque où ce genre de chose existait), et si une bobine de film venait à casser, ou que le projecteur avait besoin de maintenance, ou si une lampe devait être changée, ils étaient qualifiés et capables de résoudre le problème sur le champ.

Avec le numérique cependant, il n’existe pas de compétence dans la résolution des problèmes : cela nécessite avant tout des appels téléphoniques, des e-mails et des délais. Le fait que moi, qui n’ai reçu que la formation la plus élémentaire et la plus théorique en projection, je sois capable d’être une partie de la solution à un problème, démontre clairement comment l’industrie s’est éloigné de l’essence même du média cinéma.

Nous ne disons pas que le numérique c’est le mal, mais nous voulons que vous sachiez ce qui est en jeu. L’industrie du cinéma est déterminée à retirer les pellicules de la circulation, ils déclarent ouvertement qu’il n’y aura plus de pellicules dans le circuit de distribution cinématographiques dans quelques années. Il existe déjà des cas aux Etats-Unis où certains studios ont refusé d’envoyer des bobines de films 35 mm aux cinémas. La pression mise sur les cinémas indépendants pour, dixit, se convertir au numérique est un sujet qui mérite toutefois un autre billet, mais une autre fois.

Ce que j’aimerais vous apporter ici, c’est notre ressenti de la nuit dernière : l’industrie cinématographique est en train de changer et ce changement nous fait aujourd’hui perdre le contrôle. Nous sommes en relation avec vous, notre public, mais j’ai l’impression que quelqu’un essaie de nous séparer. Nous voulons continuer à vous donner l’expérience que vous attendez et que vous méritez quand vous venez dans notre cinéma, et nous voulons que vous sachiez que, même si on ne peut pas vous promettre que cela ne se reproduira pas, nous ferons tout ce qui est en notre pouvoir pour continuer à nous battre pour cette relation, et le premier pas pour réparer les dégâts causés par la nuit dernière est d’être honnête sur ce qui s’est passé, et pourquoi cela s’est passé ainsi.

Ecrit par Tara Judah pour le cinéma Astor.

Notes

[1] Crédit photo : Thomas Hawk (Creative Commons By-Nc)




Ce que le libre apporte à la plus ancienne religion du livre

Croire ou être de telle ou telle religion c’est d’abord s’inscrire dans son histoire et sa tradition. C’est aussi évidemment la vivre et l’éprouver au sein de sa communauté dans le temps présent de son propre chemin personnel et spirituel. On puise dans le passé, dont subsistent ici avant tout des traces écrites, pour s’y forger individuellement et collectivement hic et nunc sa propre connaissance et expérience des choses.

Ce double mouvement peut être favorisé ou au contraire freiné par le contexte social et culturel d’une époque.

C’est ici que le Libre peut éventuellement trouver sa place, comme en témoigne cet entretien avec Aharon Varady, à l’initiative d’un projet original et probant autour du judaïsme[1].

Josh Evnin - CC by-sa

Le potentiel et les promesses du judaïsme open source

The Potential and Promise of Open-Source Judaism

Alan Jacob – 12 juin 2012 – The Atlantic
(Traduction Framalang : Goofy, Lamessen, Isammoc, pbegou, Hikou, Aa)

L’effort pionnier d’une communauté pour rendre ses matériaux de culte plus largement disponibles et adaptables.

Les nouvelles technologies sont naturellement et généralement controversées, mais sans doute nulle part autant qu’au sein des communautés religieuses. Pour de nombreux chefs religieux (et leurs disciples), les nouvelles technologies de l’information sont des produits corrosifs pour la vie en communauté : les méthodes traditionnelles sont sûrement meilleures. Pour d’autres, les nouvelles technologies offrent la possibilité d’étendre l’influence des institutions religieuses, d’attirer davantage de gens dans leur communauté.

On pourrait penser qu’une religion hautement traditionnelle comme le judaïsme – où les pratiques principales sont si anciennes et patinées par la coutume – resterait suspicieuse face à la technologie. Mais Aharon Varady ne le voit pas de cet oeil : pour lui, les technologies numériques peuvent venir soutenir les pratiques traditionnelles. Varady est un homme aux dons multiples qui, entre autres, dirige le projet Open Siddur. Un siddour est un livre de prière juif qui contient les prières quotidiennes, et le projet Open Siddur travaille à créer la première base de donnée complète de liturgie juive et d’oeuvres en lien avec la liturgie – et à fournir une plateforme en ligne pour que chacun puisse ajouter son propre siddour. De cette façon Varady espère « libérer le contenu créatif des pratiques spirituelles juives afin d’en faire une ressource commune destinée à être adoptée, adaptée, et redistributée par les particuliers et les groupes ». Pour lui, l’ouverture est la clef du succès du projet.

Je vois le projet Open Siddur comme une manière profondément réfléchie et innovante d’essayer de faire en sorte que les nouvelles technologies et la vie religieuse moderne se renforcent mutuellement, plutôt que d’être hostiles ou à contre-courant. J’ai donc proposé à Aharon de répondre à quelques questions sur les idées soutenant son travail, et il a accepté volontiers. Voici notre conversation.

Vous décrivez Open Siddur comme un projet sur la « religion open source » Que voulez-vous dire par là ?

Varady : Il y a quelques années, après avoir fondé le projet Open Siddur, j’ai pensé que je devrais écrire une déclaration sur mon site internet à propos de ce que je faisais. Pendant les six années précédentes j’avais travaillé en tant qu’urbaniste, donc quelques annonces devaient être écrites pour définir un contexte professionnel et permettre à d’anciens amis de me retrouver sur Google. Je voulais placer mon travail dans un contexte laïc plus large, parce que c’était indéniablement un projet juif et religieux. En même temps c’était un projet à rapprocher des « digital humanities », un projet de transcription collaborative, une concrétisation au XXIème siècle des idées posées au XIXème par William Morris, un projet de culture libre et de logiciel open source. J’ai donc écrit que je « faisais des recherches sur la religion open source en général, et en particulier, comment le mouvement de la culture libre peut aider à établir des passerelles entre la créativité et recherche de sens individuelles et la tradition et la pertinence culturelle ».

J’étais au courant de la façon dont Douglas Rushkoff et d’autres parlaient de la religion open source et je pensais que cela ne menait nulle part. (Un bon article existe sur Wikipedia qui résume leurs efforts). Je n’étais pas intéressé par la théorisation et la théologisation de nouvelles religions inspirées par l’esprit du mouvement open source. J’étais plutôt intéressé par la façon dont la culture libre et les stratégies des licences libres pourraient améliorer l’accessibilité et la participation au contenu créatif que j’ai hérité de mes ancêtres dans cette ère de transition d’un format analogique imprimé à un format digital indexé. Il me semblait à la fois évident et nécessaire de poursuivre la numérisation des oeuvres existantes dans le domaine public, et d’élargir le réseau d’étudiants, de chercheurs, de praticiens, et des communautés qui déjà adoptaient, adaptaient et distribuaient leur inspiration créative et leur savoir… mais qui le faisaient seulement par le canal très restrictif d’oeuvres sous copyright.

La problématique essentielle est de savoir comment garder un projet collaboratif comme le judaïsme culturellement vivant, à une époque où le travail créatif des participants du projet – prières, traductions, chants etc. – sont immédiatement restreints dans leur réutilisation créative par un « tous droits réservés ». Le fait est que l’engagement profond dans les projets collaboratifs n’est pas seulement limité par des problèmes technologiques : ceux-ci peuvent et ont été surmontés. Il est limité par une conception juridique qui fait l’hypothèse que les créateurs seraient intéressés avant tout par la propriété de leurs oeuvres.

En utilisant la culture libre et les licences libres, n’importe qui souhaitant participer au judaïsme (ou à n’importe quelle religion) comme à une culture vivante, collaborative et créative, peut le faire. Il existe des licences spécifiques exploitant le copyright pour assurer aux artistes, aux auteurs, aux traducteurs etc, que leur travail leur sera attribué et restera partagé jusqu’à son entrée dans le domaine public. Cela parce qu’aux États-Unis et dans de nombreux autres pays, la fin du copyright se situe à la mort du créateur, plus 70 ans. Pour les travaux destinés à être utilisés par une culture, adaptés à différents contextes, c’est trop long. Le résultat est que beaucoup d’œuvres éphémères, imprimées ou numériques, ne sont pas partagées, ont une distribution très limitée et entrent dans le domaine public dans une complète obscurité, inconnues et oubliées.

Y a-t-il des formes contrastées de, si l’on peut dire, la religion propriétaire, comme pour le code propriétaire ?

Varady : Je le pense, mais dans ma réflexion la question de savoir si une religion réfléchit sur ses propres contenus intellectuels et créatifs comme à une propriété me fait vraiment me demander si c’est une religion ou une sorte de culte d’entreprise. Si vous croyez vraiment que vous avez une sagesse éclairée et une pratique pour la suivre, ne voudriez-vous pas chercher les moyens les plus larges pour partager cette connaissance et par cela changer le monde ? Il y a des groupes dont le business model consiste à soumettre leurs adhérents à une sorte de redevance progressive pour être initiés à leurs connaissances qu’il est interdit de divulguer, Mais il y a d’autres groupes qui souhaitent avant tout ce que ces connaissances puissent être ensuite redistribuées ou partagées.

Pour moi, le problème est que sous le régime du copyright, c’est la situation où tous les gens qui participent à des projets collaboratifs se trouvent. Ils créent une œuvre et par défaut elle n’est pas disponible pour que d’autres la réutilisent à des fins créatives. Donc ce qui aurait pu être une collaboration devient une activité onéreuse de recherche et de négociation. À moins que nous n’ayons un professeur particulièrement éclairé, nous n’avons probablement jamais appris comment utiliser le copyright pour mieux partager nos idées. De bien des manières on nous enseigne que nos idées créatives sont des marchandises et c’est corrosif pour nos projets collaboratifs et leurs cultures. Je peux constater cette attitude même à l’intérieur des maisons d’éditions d’hétérodoxes établis. Là où j’aurais pu m’attendre à un empressement à fournir des moyens pour que le public adopte, adapte, remixe et diffuse ses idées, ils se voient eux-mêmes comme les intendants responsables de leur propriété intellectuelle. Les communautés religieuses sont-elles synonymes de places de marché passives peuplées de consommateurs dont l’expérience religieuse est déconnectée et aliénée de leur esprit créatif initial, ou peuvent-elles engager créativement leurs membres dans un mouvement visionnaire ? Cela engage vraiment la façon dont la religion est vue : est-ce un projet collaboratif ou une sorte de performance artistique passive à observer ?

Les cultures doivent respirer la créativité, comme nous respirons de l’oxygène, et pour que chaque culture reste en vie, ses membres doivent être autorisés à faire preuve de créativité, non pas comme des artistes solitaires, mais comme des penseurs engagés fabriquant la pensée avec les outils de création dont ils ont hérités et qui leur ont été partagés.

Les modèles open-source que vous avez développés sont ils spécifiquement importants pour la pratique du judaïsme ? Est-ce qu’une religion comme le judaïsme qui est si profondément connectée à sa propre histoire de textes bénéficie par des voies particulières des ressources que vous avez développées ?

Varady : Nous ne développons pas de nouveaux modèles. Nous utilisons plutôt les moyens légaux existants pour partager un travail créatif selon les modalités de copyright introduites par la culture libre et le mouvement open source. La loi juive a été aux prises avec les problèmes liés à la propriété intellectuelle depuis que les technologies de reproduction textuelle contribuent à marchandiser ce qui était autrefois une tradition orale qui s’appuyait sur l’attribution et le soutien de la communauté aux chercheurs d’élite et aux érudits. Je dirais que notre projet met en avant un modèle de collaboration à l’époque numérique, où le coût de reproduction peut être réduit à zéro, et où le coût de distribution est limité seulement par notre désir et nos intentions de partager.

Chaque projet – qu’il soit initié par une petite organisation à but non-lucratif ou par une civilisation vieille de 3500 ans – bénéficierait de la numérisation de ses archives. Ces archives sont vastes et en grande partie dans le domaine public, mais seulement une fraction a été transcrite, et une partie encore plus réduite a vue ses données sémantiques formatées dans un standard ouvert compatible avec d’autres projets de « digital humanities » . C’est sur cela que nous travaillons pour la littérature informée et inspirée par la pratique spirituelle juive. Cela ne diminue pas l’importance de l’art d’interprétation, de la forme des polices de caractères, ni des pièces principales de l’art littéraire – J’adorerais que notre projet puisse aider à réhabiliter toutes ces oeuvres.

Y a-t-il d’autres éléments de la foi et de la pratique juive qui font de votre projet un bon point pour elle ?

Varady : Tefillah – et les formes diverses de la pratique spirituelle juive – sont de parfaits éléments de mon point de vue. D’une part, la pratique elle-même se situe à l’intersection entre la tradition reçue, la diversité des coutumes locales ayant évolué à travers l’histoire juive, et l’intimité de l’expérience et des pensées découvertes de manière personnelle. Ce sont des textes et de l’art : les liturgies, les commentaires, et les traductions sont les contenus créatifs dont nous avons hérités. La pratique régulière du tefillah, ainsi que de toute autre pratique intégrale, suppose que dans la structure prévue, les pratiquants développent une relation profonde et durable avec une partie d’eux-même qui suggère l’acquisition d’une connaissance plus large.

Permettre aux pratiquants de fabriquer leurs propres outils personnalisés pour développer cette relation, respecte à la fois la tradition dont ils ont hérités et la rigueur que leur propre chemin demande. En donnant les ingrédients aux gens pour fabriquer leur propre livre de prière, pour maintenir et peut-être partager via une base de données en ligne de prières, j’espère qu’ils seront capables de s’engager dans leur pratique d’une façon qui respecte honnêtement l’intégrité de la voix profondément enfouie en eux, tout en respectant l’authenticité des nombreuses autres voix qui leur parlent à travers la vaste histoire et la culture profondément créative dans laquelle ils sont immergés. Il est parfois difficile de percevoir cette dimension de l’histoire et de la créativité en regardant une page d’un livre de prières en noir et blanc. La voir, cependant, est une libération, et aide à amener les gens à un stade de compréhension qui je l’espère révèlera mieux la tradition orale à travers la tradition écrite.

Est-ce que la foi juive et sa pratique posent des challenges particuliers pour ce type d’outils collaboratifs en ligne que vous développez ? Je pense à tous les défis depuis les problèmes techniques – des navigateurs internet qui ne peuvent pas lire les textes hébreux, par exemple – jusqu’aux problèmes qui découlent des pratiques particulières des communautés juives et de leurs besoins.

Varady : Quand j’ai commencé à rêver de ce projet en 2000, j’étais un programmeur open source en Perl à Philadelphie qui voulait son siddour personnalisé et j’ai pensé que ça serait plus facile de faire ce travail si je trouvais d’autres personnes pour collaborer avec moi. Et j’ai trouvé des gens, rapidement. Ce que nous avons découvert, c’est qu’indépendamment de notre passion pour le projet, il n’existait pas encore d’encodage standard pour les voyelles en hébreu, pour la cantillation, ni les marques de ponctuation. Nous avons dû attendre jusqu’en 2006, lorsque le projet Unicode a encodé et fixé tous ces signes diacritiques. Il y avait eu quelques années auparavant une fonte numérique développée et partagée sous licence libre qui soutenait le nouvel encodage unicode et qui avait correctement positionné toutes ces marques diacritiques (Ezra SIL SR). Il s’est encore passé quelques années avant qu’un éditeur de texte hors-ligne open source puisse traiter l’écriture de droite à gauche avec un positionnement correct des diacritiques (Libre Office). Avec certaines avancées dans les navigateurs internet il devint possible d’utiliser n’importe quelle police dans un navigateur. Les libres Mozilla Firefox et Chromium (Google Chrome) ont été les premiers navigateurs à intégrer les polices en hébreu avec un positionnement correct des diacritiques. Je maintiens un site internet où nous repérons quels navigateurs restent en échec sur ce sujet.

Et ce n’est que l’hébreu. Notre projet a l’intention de soutenir la localisation dans tous les langages où des oeuvres liturgiques et para-liturgiques juives ont été créées. Cela inclut d’autres langues qui s’écrivent de droite à gauche, comme l’arabe, le persan et l’amharique. Ce que nous aimerions particulièrement avoir est un outil d’OCR open source qui peut scanner et transcrire le texte hébreu et ses diacritiques avec une très grande précision. Sinon, nous aimerions avoir un outil qui peut appliquer des diacritiques hébraïques fondées sur un ensemble de règles et un glossaire d’exceptions.

À ce jour, nos défis ont été complètement technologiques (k’ayn ayin hara), et dans une moindre mesure nous avons rencontré tous les problèmes typiques d’une start-up open source : attirer et cultiver une communauté de bénévoles passionnés avec des niveaux d’expérience et d’expertise différents. Je suis vraiment intéressé par le soutien que ce projet a reçu de la part de la communauté juive. Bien sûr, je voudrais voir un soutien plus clairement affirmé à la culture libre et aux stratégies open source de la part de consultants dans le monde de l’éducation juive, ainsi que davantage de demandes de la part de philanthropes pour que les dollars qu’ils dépensent pour financer des projets culturels ou communautaires soient conditionnés à ce que les sources des projets soient partagées avec des licences libres. C’est logique pour moi, mais les financiers ne comprennent pas pour l’instant que des sommes importantes sont gaspillées par des projets culturels qui ont dépensé de l’argent pour du travail que d’autres bailleurs de fonds ont déjà payé mais qui n’ont pas été explicitement partagés ou diffusés avec des licences libres.

Notre projet est sans doute l’avocat le plus visible pour la culture libre et les licences libres et je suis heureux de voir d’autres projets techniques éducatifs juifs qui ont déjà compris et utilisent l’open source (voyez l’application PocketTorah, et le projet Sefaria en développement). Ce n’est pas un raz de marée, mais c’est un démarrage important. Les projets les plus faciles pour collaborer sont d’autres projets libres comme la Wikisource en hébreu. Il n’y a pas de compétition lorsque nous sommes tous en train de collaborer.

À la demande d’Aharon, cette interview est publiée sous licence Creative Commons BY 3.0.

Notes

[1] Crédit photo : Josh Evnin (Creative Commons By-Sa)




Lorsque le code peut tuer ou guérir

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Ici plus qu’ailleurs, sacrifier l’humain sur l’autel du business model ne peut plus être une solution durable dans le temps[1].

Patrick - CC by-nc

Lorsque le code peut tuer ou guérir

When code can kill or cure

Technology Quarterly – 2 juin 2012 – The Economist
(Traduction : balsamic, moala, Isammoc, Otourly, Mnyo, HgO, elquan)

Appliquer le modèle open source à la conception d’appareils médicaux permet d’accroitre la sécurité et stimule l’innovation.

Les pompes SMART délivrent des médicaments parfaitements dosés pour chaque patient. Des défibrilateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et coeurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux Etats-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis à vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002. En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or le disfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq. L’Organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus. Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme : « Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique ».

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité. La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel « d’analyse statique » aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Ouvert à l’étude

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée. En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux Etats-Unis et en Inde « Pour un nouveau fabricant, c’est un bon départ » dit Peri Kasthuri, l’un de ses co-fondateurs. En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents.

Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20$. « Mon rêve, dit Dave Arnez, un chercheur participant à ce projet, est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures ».

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT: appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron. Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement, déclare le Dr Prajapati. « Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance » rappelle-t-il, là ou les modèles libres sont plus durables. « Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même. »

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical. Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source.

Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. « Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, explique le Dr Mackie, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer. » Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. « Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne. »

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. « Quand un avion s’écrase, les gens le remarquent », dit le Dr Fu. « Mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention. » Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.

Notes

[1] Crédit photo : Patrick (Creative Commons By-Nc)