Tablettes, une évolution anti subversive

Veronica Belmont - CC by

aKa twettait il y a quelques jours : « Les tablettes sont une évolution non subversive car elles rendent plus agréable la lecture et plus pénible l’écriture ». Il formulait ainsi brillamment le sentiment qui m’habite depuis plusieurs semaines de fréquentation de ma formidable et néanmoins agaçante tablette Androïd, très proche du tant espéré sac sans fond de Miss Tick.

J’aime beaucoup cet engin léger mais je cherche encore l’application d’édition de texte qui me permettrait d’écrire ou de corriger des textes longs, avec commentaires et marques de révision. Sans parler de la récupération sous un format bureautique, de préférence ouvert, des notes prises lors de ma lecture de livres électroniques… Pas de logiciels appropriés, un clavier tactile qui n’est pas vraiment l’ami de l’auteur de thèse (pour de simples raisons de taille de l’interface, un problème par conséquent commun à toutes les tablettes 10 pouces), j’ai en effet dans les mains un outil de lecture et non d’écriture. Lecture de jeux, de textes, de vidéos. Il permet de s’exprimer puisque je peux facilement enregistrer et publier sons, photos, vidéos, textes courts (tweets, commentaires, avis). Mais, si une photo vaut 1000 mots en vaut-elle 100 000 ? Je ne crois pas qu’il faille s’étendre longtemps ici sur la nécessité d’argumentaires élaborés, que l’on n’écrira jamais de façon linéaire dans une succession de remarques de 140 caractères pensées dès le départ dans leur ordre final.

Les tablettes, dont le nom évoque paradoxalement la tablette d’argile des scribes antiques, se revendique d’ailleurs comme un outil de divertissement qui, étymologiquement, désigne « ce qui détourne quelqu’un de l’essentiel ». L’essentiel serait ici l’écriture longue, l’écriture de travail, et avec elle la pensée argumentée, celle qui a déjà tellement fait parler en s’ouvrant grâce aux outils de blog à des auteurs et penseurs non patentés.

Comme l’écrit Michel Foucault en 1970[1], l’ordre des discours est un ensemble de procédures qui ont pour rôle de contrôler et de délimiter le discours, « d’en conjurer les pouvoirs et les dangers, d’en maîtriser l’événement aléatoire, d’en esquiver la lourde, la redoutable matérialité. » Tous les outils de facilitation de l’accès à la parole remettent en question ces modalités de contrôle du danger du discours. Les outils d’écriture en particulier, l’écrit possédant historiquement un statut unique : chacun sait parler y compris le fou, celui dont on ne doit pas écouter le discours, mais l’auteur doit avoir été alphabétisé, puis rendu public, publié, avec l’adoubement de ses pairs, de sa maison d’édition.

Les outils réseau WYSIWYG d’écriture sont subversifs car ils mettent potentiellement en danger l’ordre établi des prescripteurs de la pensée : éditeurs, « publieurs » de tout types de textes. Non qu’il faille nécessairement mettre cet ordre à bas mais plus de liberté est toujours bon à prendre. Un nouvel ordre s’est d’ailleurs mis en place, plus souple, blogueurs et auteurs en ligne, intelligents et/ou informés, se relayant aux cotés d’institutions et de prescripteurs anciens, non moins intelligents et/ou informés et (parfois) à l’écoute des premiers.

Or, l’avènement des tablettes et leur succès suggère un risque de désengagement de certains auteurs (ou potentiels auteurs) de textes longs, ceux pour lesquels l’outil constitue une contrainte et qui n’en ont pas plusieurs à disposition. L’outil est indissociable du geste et de la pensée. Quel impact social ce désengagement par KO technique de l’auteur “de masse” aura-t-il?

Selon le philosophe allemand Peter Sloterdijk, on peut établir une typologie de l’humanisme. Il y a d’abord une période antique qui offre par le livre de domestiquer l’homme : « On ne peut comprendre l’humanisme antique que si on le considère aussi comme partie prenante d’un conflit de médias, à savoir, comme la résistance du livre contre le cirque, comme l’opposition entre la lecture philosophique qui humanise, rend patient et suscite la réflexion, et l’ivresse déshumanisante des stades romains. » À cette période succède celle de l’humanisme bourgeois qui repose “en substance sur le pouvoir d’imposer à la jeunesse les auteurs classiques afin de maintenir la valeur universelle de la lecture nationale. En conséquence, les nations bourgeoises allaient devenir, jusqu’à un certain point, des produits littéraires et postaux – fictions d’une amitié inéluctable entre compatriotes, même éloignés, et entre lecteurs enthousiastes des mêmes auteurs. »

Ainsi, pour Sloterdijk, l’humanité consiste à choisir, pour développer sa propre nature, les médias qui domestiquent plutôt que ceux qui désinhibent. Or, la thèse latente de l’humanisme, selon laquelle « de bonnes lectures adoucissent les moeurs », est mise à mal avec l’évolution des médias dans la culture de masse à partir de 1918 (radio) et après 1945 (télévision), “la littérature, la correspondance et l’idéologie humaniste n’influençant plus aujourd’hui que marginalement les méga-sociétés modernes dans la production du lien politico-culturel”.

Contrairement à l’analyse de Sloterdijk qui associe ensuite radio, télé et réseau, il me semble que l’association entre l’ordinateur domestique (!) et le réseau offre une alternative à cet humanisme domestiquant ou à l’humanisme moderne post-littéraire qu’il décrit, au moyen d’une littérature encore vecteur de lien mais beaucoup moins encadrée par ses autorités de tutelle, par nos précepteurs. Sans retomber dans les jeux du cirque (enfin, pas complètement…).

Et voila que nous arrive ce très séduisant outil qui semble créé (il n’y a pas de théorie du complot derrière ces termes !) pour appuyer encore la tendance réseau/Minitel 2.0 dénoncée par Benjamin Bayart : données centralisées sur des serveurs externes, terminaux passifs, internaute-spectateur. S’agit-il d’un retour volontaire à la domestication ?

Les tablettes sont donc non seulement une évolution non subversive mais peut-être aussi une évolution anti subversive si nous n’y prenons garde. Armons-nous donc de claviers et disques durs externes et développons pour ces outils dont le succès à long terme semble assuré des applications (libres) d’édition de textes longs. Pour ma part j’ai écrit ce texte sur mon ordinateur portable que je ne suis pas prête d’abandonner.

Chloé Girard – Juin 2012
Responsable de fabrication papier et électronique pour la maison d’édition Droz

Crédit photo : Veronica Belmont (Creative Commons By)

Notes

[1] Michel FOUCAULT, L’ordre du discours Leçon inaugurale, Collège de France, Paris : Flammarion, 1971.




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.




Ce qui s’est passé la nuit dernière, dans un cinéma de Melbourne

Inauguré en 1936, L’Astor Theatre est un cinéma bien connu des habitants de Melbourne. En janvier dernier on y a programmé un film qui a bien failli ne pas être projeté.

Pourquoi ? Parce que le cinéma actuel est en train de faire sa « révolution numérique » et que comme on peut dès lors facilement copier un film, les distributeurs ont mis plus un système complexe de protection (l’équivalent des DRM pour la musique) qui peut s’enrayer et laisser les propriétaires des salles démunis et impuissants face au problème.

C’est le témoignage d’une des personnes qui gèrent le cinéma Astor que nous vous proposons ci-dessous[1].

Thomas Hawk - CC by-nc

Ce qui s’est passé la nuit dernière

What Happened Last Night

Tara Judah – 26 janvier 2012 – The Astor Theatre Blog
(Traduction Framalang : Antistress, Lamessen, Penguin, HgO, Étienne, ZeHiro, kabaka, Penguin, Lamessen)

Nous avons tous des nuits que nous préférerions oublier. Mais parfois, il est préférable d’en parler le lendemain matin. Et étant donné que nous avons une relation étroite (nous le cinéma, vous le public), c’est probablement mieux de vous dire ce qui s’est passé et, plus important, pourquoi ça c’est passé ainsi.

La nuit dernière nous avons eu un retard imprévu, non désiré et désagréable lors de notre projection de Take Shelter – la première partie de notre mercredi de l’horreur.

J’utilise les mots imprévu, non désiré et désagréable parce que nous aimerions que vous sachiez que c’était aussi désagréable pour vous que pour nous – et aussi que c’était quelque chose de totalement hors de notre contrôle. En tant que cinéma il y a de nombreux aspects de votre expérience que nous maîtrisons et qui sont sous notre responsabilité ; l’atmosphère des lieux lorsque vous vous rendez à l’Astor est quelque chose sur lequel nous travaillons dur et pour lequel nous déployons tout notre talent, même si là aussi de nombreux facteurs extérieurs entrent en jeu. Mais parfois ces facteurs extérieurs que nous essayons d’accommoder sont tels que la situation nous échappe et, par conséquent, tout ce que nous pouvons faire est d’essayer de corriger le problème du mieux que nous le pouvons et le plus rapidement possible.

Le paysage de l’industrie cinématographique change rapidement. La plupart d’entre vous le sait déjà parce que nous partageons avec vous ces changements sur ce blog. L’année dernière, nous avons ainsi installé un nouveau projecteur numérique ultramoderne, un Barco 32B 4K. Les raisons qui nous y ont conduit étaient multiples et variées. Qu’elles aient été endommagées voire détruites avec le temps, ou rendues, volontairement ou non, indisponibles par leur distributeurs, un nombre croissant de bobines 35 mm disparaît réduisant ainsi le choix de notre programmation (et je ne vous parle même pas des différents problèmes de droits de diffusion des films).

L’arrivée de la projection numérique et l’accroissement de la disponibilité de versions numériques des films cultes et classiques nous ont effectivement offerts quelques belles opportunités de vous présenter des films autrement confinés au petit écran (dont Taxi Driver, Docteur Folamour, South Pacific, Oklahoma ! et Labyrinthe, pour n’en citer que quelques uns). Les grands studios des industries culturelles sont donc en train de se diriger vers ce qui a été salué comme étant une « révolution numérique ». Le terme lui-même est effrayant. Tandis que la projection numérique possède de nombreux avantages, elle recèle également des pièges. Ce que nous observons en ce moment est le retrait des bobines de film de 35 mm en faveur de la projection numérique, le plus souvent au format DCP (Digital Cinema Package).

Or contrairement aux pellicules de 35mm qui sont des objets physiques, livrés en bobines et qui sont projetées grâce à un projecteur mécanique, les DCP sont des fichiers informatiques chargés à l’intérieur d’un projecteur numérique qui, par bien des aspects, se résume à un ordinateur très sophistiqué. Puisque le fichier est chargé dans le projecteur, le cinéma peut en conserver une copie ad vitam aeternam, s’il y a assez d’espace sur son serveur. C’est pourquoi, après avoir eux même engendré cette situation, les studios et les distributeurs verrouillent les fichiers pour qu’ils ne puissent être projetés qu’aux horaires planifiés, réservés et payés par le cinéma. Ceci signifie que chaque DCP arrivé chiffré que vous ne pouvez ouvrir qu’avec une sorte de clé appelée KDM (Key Delivery Message), Le KDM déverrouille le contenu du fichier et permet au cinéma de projeter le film. Il dépend évidemment du film, du projecteur du cinéma mais aussi de l’horaire, et n’est souvent valide qu’environ 10 min avant et expire moins de 5 min après l’heure de projection programmée. Mis à part le fait évident que le programme horaire des projections doit être précisément suivi, cela signifie aussi que le projectionniste ne peut ni tester si le KDM fonctionne, ni vérifier la qualité du film avant le début de la projection. Ce n’est à priori pas un probléme. Mais lorsqu’il y en a un…

Lorsqu’il y a un problème, nous obtenons ce qui s’est produit la nuit dernière.

Le KDM que nous avions reçu pour Take Shelter ne fonctionnait pas. Nous avons découvert cela dix minutes environ avant la projection. Comme nous sommes un cinéma, et que nous avons des projections le soir, nous ne pouvions pas simplement appeler le distributeur pour en obtenir un nouveau, car ils travaillent aux horaires de bureau. Notre première étape fut donc d’appeler le support téléphonique ouvert 24h sur 24 aux Etats-Unis. Après avoir passé tout le processus d’authentification de notre cinéma et de la projection prévue, on nous a dit que nous devions appeler Londres pour obtenir un autre KDM pour cette séance précise. Après avoir appelé Londres et avoir authentifié de nouveau notre cinéma et notre projection, on nous a dit qu’ils pouvaient nous fournir un autre KDM, mais pas avant que le distributeur ne l’autorise aussi. Cela voulait dire un autre délai de 5-10 minutes pendant que nous attendions que le distributeur confirme que nous avions en effet bien le droit de projeter le film à cet horaire. Une fois la confirmation reçue, nous avons attendu que le KDM soit émis. Le KDM arrive sous la forme d’un fichier zip attaché dans un mail, qui doit donc être ensuite dézippé, sauvegardé sur une carte mémoire et copié sur le serveur. Cela prend à nouveau 5-10 minutes. Une fois chargé, le projecteur doit reconnaître le KDM et débloquer la séance programmée. Heureusement, cela a fonctionné. Néanmoins, jusqu’à ce moment-là, nous ne savions absolument pas, tout comme notre public, si le nouveau KDM allait fonctionner ou non, et donc si la projection pourrait ou non avoir lieu.

Il ne s’agit que d’un incident dans un cinéma. Il y a des milliers et des milliers de projections dans des cinémas comme le nôtre à travers le monde, qui rencontrent les mêmes problèmes. Si nous avions projeté le film en 35 mm, il aurait commencé à l’horaire prévu. Le projectionniste aurait préparé la bobine, l’aurait mise dans le projecteur et alignée correctement avant même que vous vous ne soyiez assis, zut, avant même que nous n’ayions ouvert les portes pour la soirée. Mais c’est une situation que l’industrie du cinéma a créée et qu’elle va continuer de vendre comme étant supérieure au film 35mm.

Je ne dis pas qu’il n’y a pas d’avantages au cinéma numérique, mais je dis qu’il y a aussi des problèmes. Et pire encore, des problèmes qui sont hors de notre contrôle et qui nous font paraître incompétents.

Nous employons des projectionnistes parfaitement formés au cinéma Astor, vous savez, le genre qui ont plus de 20 ans d’expérience chacun, qui avaient une licence de projectionniste (à l’époque où ce genre de chose existait), et si une bobine de film venait à casser, ou que le projecteur avait besoin de maintenance, ou si une lampe devait être changée, ils étaient qualifiés et capables de résoudre le problème sur le champ.

Avec le numérique cependant, il n’existe pas de compétence dans la résolution des problèmes : cela nécessite avant tout des appels téléphoniques, des e-mails et des délais. Le fait que moi, qui n’ai reçu que la formation la plus élémentaire et la plus théorique en projection, je sois capable d’être une partie de la solution à un problème, démontre clairement comment l’industrie s’est éloigné de l’essence même du média cinéma.

Nous ne disons pas que le numérique c’est le mal, mais nous voulons que vous sachiez ce qui est en jeu. L’industrie du cinéma est déterminée à retirer les pellicules de la circulation, ils déclarent ouvertement qu’il n’y aura plus de pellicules dans le circuit de distribution cinématographiques dans quelques années. Il existe déjà des cas aux Etats-Unis où certains studios ont refusé d’envoyer des bobines de films 35 mm aux cinémas. La pression mise sur les cinémas indépendants pour, dixit, se convertir au numérique est un sujet qui mérite toutefois un autre billet, mais une autre fois.

Ce que j’aimerais vous apporter ici, c’est notre ressenti de la nuit dernière : l’industrie cinématographique est en train de changer et ce changement nous fait aujourd’hui perdre le contrôle. Nous sommes en relation avec vous, notre public, mais j’ai l’impression que quelqu’un essaie de nous séparer. Nous voulons continuer à vous donner l’expérience que vous attendez et que vous méritez quand vous venez dans notre cinéma, et nous voulons que vous sachiez que, même si on ne peut pas vous promettre que cela ne se reproduira pas, nous ferons tout ce qui est en notre pouvoir pour continuer à nous battre pour cette relation, et le premier pas pour réparer les dégâts causés par la nuit dernière est d’être honnête sur ce qui s’est passé, et pourquoi cela s’est passé ainsi.

Ecrit par Tara Judah pour le cinéma Astor.

Notes

[1] Crédit photo : Thomas Hawk (Creative Commons By-Nc)




Lorsque le code peut tuer ou guérir

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Ici plus qu’ailleurs, sacrifier l’humain sur l’autel du business model ne peut plus être une solution durable dans le temps[1].

Patrick - CC by-nc

Lorsque le code peut tuer ou guérir

When code can kill or cure

Technology Quarterly – 2 juin 2012 – The Economist
(Traduction : balsamic, moala, Isammoc, Otourly, Mnyo, HgO, elquan)

Appliquer le modèle open source à la conception d’appareils médicaux permet d’accroitre la sécurité et stimule l’innovation.

Les pompes SMART délivrent des médicaments parfaitements dosés pour chaque patient. Des défibrilateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et coeurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux Etats-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis à vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002. En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or le disfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq. L’Organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus. Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme : « Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique ».

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité. La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel « d’analyse statique » aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Ouvert à l’étude

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée. En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux Etats-Unis et en Inde « Pour un nouveau fabricant, c’est un bon départ » dit Peri Kasthuri, l’un de ses co-fondateurs. En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents.

Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20$. « Mon rêve, dit Dave Arnez, un chercheur participant à ce projet, est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures ».

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT: appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron. Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement, déclare le Dr Prajapati. « Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance » rappelle-t-il, là ou les modèles libres sont plus durables. « Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même. »

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical. Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source.

Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. « Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, explique le Dr Mackie, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer. » Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. « Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne. »

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. « Quand un avion s’écrase, les gens le remarquent », dit le Dr Fu. « Mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention. » Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.

Notes

[1] Crédit photo : Patrick (Creative Commons By-Nc)




Entretien avec trois candidats du Parti Pirate aux legislatives 2012

Le dimanche 10 juin prochain aura lieu le premier tour des élections législatives françaises.

Dans plus d’une centaine de circonscriptions, vous avez le choix entre aller à la pêche, voter pour un parti traditionnel ou, et c’est nouveau, apporter votre voix au Parti Pirate (PP) et ainsi donner de la voix aux thèmes qu’ils soutiennent et qui nous sont chers.

Rencontre avec Carole Fabre (candidate pour la 3ème circonscription de Haute-Garonne), Pierre Mounier et David Dufresne (respectivement candidat et suppléant pour la 15ème circonscription de Paris) que nous connaissions avant qu’ils ne se présentent et qui ont bien voulu répondre à quelques-unes de nos questions.

Espoir et énergie communicative. À force de pousser de tous les côtés, nous finirons bien par faire bouger les lignes 🙂

Carole Fabre

Bonjour à tous les trois, pouvez-vous vous présenter succinctement ?

Carole Fabre (CF) : Actuellement, je fais du conseil formation autour des usages du web, j’essaie d’amener le partage, la collaboration, la réciprocité, les liens, l’éthique, la responsabilité numérique, que ce soit pour la veille, pour l’identité numérique, pour les médias sociaux, pour le management, etc … Je donne aussi des cours ponctuellement.

David Dufresne (DD) : Punk un jour, punk toujours. Je suis aussi journaliste à l’ancienne, et réalisateur de webdocumentaires. Incapable de tenir une guitare, je pianote sur mon clavier toutes la journée. Ma première connexion remonte à 1994. Je passais par un prestataire américain, CompuServe. On payait en dollars. Et certains mois, la parité franc/dollar jouait de sales tours.

Pierre Mounier (PM) : Je suis professeur de lettres ; je travaille aujourd’hui dans l’édition numérique de sciences humaines et sociales en libre accès.

Qu’est-ce qui, dans votre CV, peut expliquer cet engagement ? Est-ce votre premier pas en politique ? Et dans la vie associative ?

CF : Dès la fin des années 80, j’ai eu un ordinateur personnel et je suis connectée à Internet depuis 1996. J’ai rapidement compris que le numérique allait changer considérablement nos façons de faire et qu’Internet nous ouvrait des voies inédites pour plus de partage et de collaboration.

Petit à petit, il s’est dessiné un chemin nouveau, une autre façon d’envisager les relations humaines, les liens sociaux; la puissance du réseau des réseaux est devenue incontournable. Elle nous a montré une autre voie possible en nous connectant aux autres dans le monde entier, un accès inépuisable aux connaissances, une entraide pour apprendre, l’autonomie pour publier, une voie plus libre, plus responsable !

Mais cette liberté fait peur, surtout à ceux qui dirigent, aux experts, aux enseignants, …, à tous ceux qui pensent avoir autorité sur d’autres. Alors ils reculent et je n’ai pas envie de reculer mais d’avancer. C’est pourquoi j’ai rejoint le Parti Pirate. Je n’avais jamais envisagé avant de rejoindre un parti politique, les trouvant tous à mille lieues des préoccupations essentielles, les regardant fonctionner avec leurs petits pouvoirs, leurs petites visions, leurs fonctions à privilégier.

Non, la politique ce n’était pas pour moi. Mais la virulence qui s’est accentuée, et cela dans le monde entier, contre les libertés acquises, numériques ou pas numériques, a fait que j’ai sauté le pas. Insidieusement, certains tentent de faire d’Internet une simple télévision pour consommateur, certains tentent de surveiller et de punir la liberté d’expression, certains tentent de nous mettre en fichiers, certains tentent d’empêcher le partage. Et toutes ces tentatives ricochent par effet induit dans la vie de tous les jours. Vidéosurveillance, vidéo-protection, fichage biométrique, scanners corporels dans les aéroports, brevetage du vivant … bientôt les marchandises seront plus libres que les humains.

Je ne peux cautionner cela et rester à attendre sans rien faire. La société qui advient est basée sur le numérique, que ce soit la création monétaire, les logiciels boursiers, le vote électronique, …, toute la communication, tous les échanges. Il est temps de décider ce que l’on désire vraiment comme société.

Une autre raison m’a poussée à me porter candidate. Je milite activement depuis 3 ans pour l’instauration d’un revenu de base pour tous. Et le Parti Pirate français le propose en mesure compatible avec le programme national.

DD : Il y a très longtemps, en 2000, l’un de mes livres était intitulé « Flics et Pirates du Net » (écrit avec Florent Latrive)… Autant dire que la question du « piratage » me travaille depuis un certain temps. A dire vrai, depuis 18 ans maintenant, mon travail se partage entre le Net et les questions liées aux libertés (individuelles, collectives).

La nuit, je milite pour un Net ouvert et non marchand; le jour, je réalise des films et écrit des enquêtes sur la police, la justice. Le Parti Pirate rejoint mes deux préoccupations, en quelque sorte. Oui, premier engagement au sens engagement-parti-politique; oui, première carte politique. Pour être franc: je suis le premier étonné, moi qui suis d’ordinaire si réfractaire à toute idée de hiérarchie. Mais le PP est assez foutraque, et plein d’énergie, pour être excitant.


PM : je me suis intéressé aux enjeux politiques et sociaux d’Internet et du numérique à partir de la fin des années 90. J’ai créé un site, Homo Numericus, qui m’a permis d’explorer la révolution numérique dans ses différentes dimensions. J’ai bien vu lors des premières lois qui ont été adoptées sur la sujet qu’il y avait un décalage considérable entre les usages réels des internautes et la manière dont la classe politique traditionnelle considère et prétende réguler ces usages.

J’ai été proche de plusieurs associations de défense des libertés sur Internet et j’ai participé à plusieurs des mobilisations à l’occasion du vote sur ces lois. Et à chaque fois, j’ai été déçu par la faiblesse et le manque de retentissement de ces mobilisations. Tout se passe encore comme si les questions politiques liées au numérique relevaient encore d’un autre monde virtuel sans prise avec la vie réelle. C’est pour cela que j’ai cherché une autre forme d’engagement, qui cherche à prendre pied dans le réel, sur le terrain même des politiques, en établissant un rapport de force, en présentant des candidats aux élections.

Pas n’importe quel engagement : le Parti Pirate. Alors pourquoi lui et pas un autre ? Où se situe son originalité et son espoir ?

CF : Comme une vague générationnelle, le Parti Pirate, présent dans 64 pays, déferle sur le monde ancien. Ce n’est pas un parti enfermé dans ses frontières, il y a quelque chose de beaucoup plus fort, beaucoup plus important que les vaines revendications des autres partis politiques complètement sclérosés, incapables de lever le nez hors de leurs privilèges; Je ressens un souffle de liberté avec le Parti Pirate, d’ailleurs les libertés sont au cœur du programme politique. Liberté, un mot, que l’on a très rarement entendu pendant les présidentielles…

DD : Comme Carole, parce que je crois que le PP peut déferler sur le monde ancien, le bousculer, le hacker et le hâcher menu. Il faudra du temps, il faudra même passer — peut-être ? — par une forme de durcissement du discours, mais c’est jouable. Et plus que tentant. Certains adhérents du PP revendiquent le ni droite ni gauche. Pas moi. Je comprends bien l’idée (« ni droite ni gauche, devant ! »), qui est séduisante sur bien des points, elle reste pour l’heure trop floue. Personnellement, je suis venu au PP pensant y trouver un levier pour hacker la gauche de gauche.

PM : j’ai été conquis par cette idée de démocratie directe qui est au cœur du Parti Pirate. Le Parti Pirate est né de l’Internet. Il en porte la culture politique : horizontal, peu de délégation, ouvert aux contributions de tous, se coordonnant de manière flexible et réactive.

Peut-on vous qualifier de « power user » d’Internet et si oui en quoi cela a pu faciliter le rapprochement avec le Parti Pirate et ses thèmes de prédilection ?

CF : Oui, je dois être « power user », c’est ça 🙂 (voir réponses plus haut)

DD : Je suis Interneto-dépendant, littéralement. C’est affreux, et délicieux. J’imagine que bien des lecteurs du Framablog ressentent la même chose. Ma grande (et bonne) surprise a été de voir, en arrivant au PP, que ce n’était pas, justement, les Internautes Anonymes. Tous les sympathisants ne sont pas forcément des « power users ». On est loin de l’image des réunions de Geeks parfois, et c’est très bien ainsi. Ça montre que le PP fédère large.

PM : Oui, c’est évident. Je travaille avec Internet, je vis sur Internet et je considère le cyberespace comme ma patrie d’adoption. Mais en même temps : n’est-ce pas le cas d’un très grand nombre de personnes ? Ne sommes-nous pas tous des power users ?

La plupart des enquêtes le montrent : les usages des nouvelles technologies sont très répandus et intensifs, souvent sur un mode de communication particulier. Tout le secteur tertiaire travaille en permanence sur ordinateur. Les services de communication en ligne ont des millions d’utilisateurs, les smartphones ont un taux de pénétration considérable.

Ce qui est caractéristique de nos trois profils en revanche, c’est que nous sommes des médiateurs : formateur, journaliste et enseignant. Nous ne sommes donc pas nécessairement plus « geeks » que d’autres, mais je crois que nous sommes dans des positions qui nous amènent à avoir une conscience plus aiguë de ces nouveaux usages et de leurs implications politiques.

La « grande presse » a consacré de nombreux articles à la présence du Parti Pirate lors de ces élections. Est-ce déjà un succès en soi et êtes-vous satisfait de la manière dont les journalistes ont parlé de vous ?

DD : La presse a besoin de nouveauté, et il ne faut pas s’y tromper: l’incroyable couverture récente du PP doit beaucoup à cet aspect des choses. Les résultats de dimanche, bien sûr, seront importants pour la suite que la presse voudra bien accorder, ou non, au PP. L’essentiel est que le nom ait circulé dans les rédactions, que le PP se soit fait une petite place, que nous ayons, par exemple, été repris du Figaro à TF1, du Monde à Europe 1, sur la question du vote par Internet des Français de l’étranger, au point que le Quai d’Orsay se soit senti contraint de nous répliquer. Ou que Marianne, en nous rangeant dans les « farfelus », se soit vu immédiatement contredit sur Twitter.

Malgré le retentissement récent, tout reste à faire. Je pense qu’on peut être plus inventifs, plus percutants, plus pirates. D’autant que nous butons sur un sacré conservatisme de la part des journalistes politiques. Ne pas comprendre que ce qui se joue aujourd’hui d’un point de vue technologique est aussi crucial que les combats écologiques lancés par les Verts est, au mieux, une preuve de cécité de leur part; au pire, une faute professionnelle.

CF : C’est un premier pas. Il est vrai que les succès électoraux en Allemagne nous ouvrent la voie. Localement, c’est assez amusant, la première fois que la Dépêche du Midi nous a cité, ils ont mis PP Parti Populaire… ils n’avaient jamais entendu parler du Parti Pirate !

En général, nous sommes encore trop qualifiés de geeks et d’informaticiens à lunettes, les journaliste ont du mal à voir que nos revendications dépassent largement Internet. Peu signalent par exemple que nous nous engageons à suivre la charte anti-corruption de Anticor. Dès qu’on parle de transparence politique ils sont assez surpris et tentent de nous faire revenir sur le téléchargement 😉

PM : Oui, et je dois avouer que c’est une surprise pour moi. La plupart des mouvements politiques et mouvements sociaux d’un type nouveau traversent une longue période à leurs débuts au cours de laquelle les médias ne leur donnent aucune visibilité et, pire, déforment leur positionnement et leurs propositions. Je trouve que cela n’a pas été trop le cas au cours de cette campagne. J’ai noté beaucoup de curiosité de la part des journalistes qui ont cherché à comprendre sincèrement ce qu’était ce mouvement.

Le meilleur exemple pour moi est l’article d’Yves Eudes dans le Monde qui établit une coupe sociologique objective du mouvement et qui a appris, je crois, beaucoup aux adhérents du Parti Pirate eux-mêmes… Par contre, cet article a été classé dans la rubrique…. Technologies. C’est caractéristique.L’engouement médiatique a beaucoup été le fait des secteurs culture et technologies de la presse, mais n’a pas encore touché le cœur du cœur du système médiatique : les journalistes politiques de la presse nationale qui ne nous ont pas encore repérés dans leur radar.

Le Parti Pirate a été très actif pour dénoncer le vote électronique des français de l’étranger. En quoi est-ce une affaire importante pragmatiquement et symboliquement parlant ?

CF : Encore une fois, nous comprenons et maîtrisons le numérique et savons que le numérique c’est piratable 🙂 … A partir de ce constat, il y a des choses que nous ne pouvons pas faire. Le vote électronique est incontrôlable. Peut-être un jour arriverons nous à sécuriser le vote électronique mais pas actuellement. Au-delà des problèmes techniques et de la non vérification possible par les citoyens, l’ironie est que c’est une entreprise privée d’Espagne qui s’occupe de gérer ce vote …

DD : À mes yeux, cette affaire constitue un enjeu majeur dans le sens où c’est un peu de la démocratie qu’on confisque, avec des dysfonctionnements patents, une privatisation partielle du vote, une opacité réelle. C’est bien parce que nous défendons Internet que nous nous devons de traquer les abus des pouvoirs publics et des sociétés privées. Le vote électronique des français de l’étranger est apparu au fil des jours pour ce qu’il est : un cheval de Troie.

Les Partis Pirates suédois et allemand ont une longueur d’avance. De plus lors des récentes manifestations contre ACTA on a pu voir l’Est de l’Europe beaucoup plus mobilisée que l’Ouest, France incluse. Y a-t-il une raison à cela et n’est-ce pas un indicateur défavorable quant à ces prochaines élections ?

CF : Même si nous parlons beaucoup d’ACTA entre acteurs du numérique sur Internet et que l’on sent tout de même un revirement positif de la situation au niveau européen, le problème est que la plupart des citoyens n’en ont jamais entendu parler ! Il faut expliquer encore et encore. En tout cas ce n’est vraiment pas au cœur des débats des autres partis politiques pour ces élections, que dis-je au cœur, c’est complètement absent. Et oui, c’est défavorable, car le grand public ne comprend pas encore l’importance de ces enjeux.

DD : La France est un pays terriblement passéiste et passablement frileux. Avec un Front National si fort, et une gauche parlementaire qui a si peur de son ombre, tout semble bloqué. Depuis déjà un paquet de temps, et pour longtemps. Nos voisins, moins auto-centrés, ont compris bien avant nous l’importance de la… révolution numérique. Sincèrement, oui, la bataille ne fait que commencer de ce côté_-ci du Rhin. C’est ce qui en fait, aussi, sa beauté: tout est à faire.

PM : Nous sommes un pays technophobe et c’est une malédiction qui nous frappe de manière renouvelée. Beaucoup de gens pensent que la politique s’arrête aux déclarations de principe (le « fétichisme des principes » est une autre de nos malédictions) et ne voient pas du tout comment il peut y avoir des enjeux politiques dans ce qu’ils considèrent comme des « affaires de garagistes » (sic, citation réelle).

Il y a bien une tradition intellectuelle française qui s’intéresse à la chose technique et à ses enjeux sociaux et politiques ; les encyclopédistes, Saint Simon, Simondon, Latour, Serres. Mais elle est isolée et minoritaire, rarement dominante à chacune des époques considérées. Or, c’est un vrai handicap, alors que nous vivons à une époque complètement dominée par des enjeux techno-scientifiques. Peut-on faire évoluer les mentalités et intéresser les français aux enjeux politiques des choix technologiques ? Je pense que la montée en puissance d’un Parti Pirate en France peut y contribuer.

David Dufresne

Cory Doctorow a pu dire qu’il est fondamental de gagner la bataille actuelle contre le copyright car elle fait figure de laboratoire pour les autres batailles à venir entre le citoyen, les multinationales et les états affaiblis. D’accord pas d’accord ?

CF : Entièrement d’accord. Si les droits d’auteur et les brevets ont pu être profitables au XIXème siècle, ils sont maintenant complètement obsolètes. Nous devons repenser tout cela.

Quand on voit que certains tentent maintenant de breveter aussi le vivant … c’est impensable de s’approprier nos biens communs, breveter des gènes humains, des gènes animaux, des gènes de plantes. Quelle société cela préfigure t-il ? Avons-nous envie de tout marquer et de tout jouer en bourse ? Les dégâts sont bien déjà assez suffisants avec le marché des matières premières et des matières alimentaires.

PM : Oui, absolument. La conférence de Cory Doctorow devant le Chaos Computer Club si mes souvenirs sont bons est un moment historique qui a donné un sens politique général a un combat qui pouvait sembler à la fois pointu et un peu secondaire parce que concernant seulement la consommation culturelle.

Le logiciel libre est un des pionniers et un des piliers de la révolution à venir. Délire ou prophétie ?

CF : Prophétie, oui ! Quand on voit que près de 95% des serveurs dans le monde sont sous Unix et non pas sous Windows, nous nous devons de demander pourquoi c’est mieux fabriqué. Et comment ça se fabrique. Là encore, la pédagogie est indispensable, peu de personnes savent.

L’autre jour, je me demandais : « et si on ouvrait les codes de la loi et qu’on puisse les améliorer, et même en faire un fork pour simplifier, repartir sur des bases saines et non pas un empilement où plus personne ne comprend plus rien. » 🙂

Mais sans aller aussi loin, on constate déjà que des initiatives voient le jour dans d’autres domaines que les logiciels : des plans partagés et améliorés de moteur, des systèmes agricoles, des systèmes d’eau potables, etc.

C’est en fait naturel à l’être humain, pouvoir comprendre, contribuer, améliorer, cela s’est toujours fait. La propriété généralisée à toute chose est finalement assez récente dans l’histoire de l’humanité. Si le silex avait été breveté et privatisé, nous ne serions peut-être pas là aujourd’hui. 🙂 Et la roue, hein, la roue…

DD : C’est moins l’outil libre que sa confection qui importe. Ce que le logiciel libre bouleverse, c’est cette forme de société de contribution qu’il annonce. Cette notion de pot commun, de partage, de désintéressement parfois provisoire, qu’importe. Mais nous avons un effort de pédagogie à mener: seule la communauté du Libre sait de quoi il s’agit. Hors de celle-ci, libre et free, gratuit et open source, sont des notions encore mal comprises et qui semblent vidées de leur caractère politique.

PM : Ni l’un ni l’autre : le logiciel libre est aujourd’hui un des piliers fondamentaux de la révolution en cours (et non à venir). Mais cela implique de devoir résoudre des problèmes que pose ce mouvement continu d’élargissement du « libre » à d’autres secteurs d’activités que la conception logicielle.

Et sur ce chemin, la voie est étroite entre une forme d’intransigeance aristocratique et parfois puriste qui empêche la greffe de prendre d’un côté, et ce qui constituerait une dilution tellement importante qu’on n’y retrouverait plus l’esprit originel de l’autre : logiciel libre, art libre, culture libre, creative commons, libre accès, open data, on a là une galaxie qui témoigne d’une dynamique positive. Cette dynamique ne peut exister que parce qu’une certaine souplesse est permise, mais aussi parce qu’un sens et des limites sont données.

Occupy, Anonymous, Indignados, Wikileaks sont des mots clés qui vous parlent ?

CF : Yep ! Tous ces mouvements dénoncent les opacités, les corruptions qui entachent notre civilisation et chacun à leur manière agit soit par Internet, soit dans la rue. Au Parti Pirate, on attaque par un autre biais, on tente de hacker la politique.

DD : + 1, Carole. Le Parti Pirate est un allié, sincère, de tous ces mouvements. Ils sont le signe du changement réel, d’une prise de conscience à la fois mondiale et citoyenne. Non violente pour certains, intrusives et hors la loi pour d’autres. Le phénomène des casseroles à Montréal s’inscrit aussi dans cet élan. Et ce n’est pas pour rien que les Anonymous ont infiltré les serveurs de la police canadienne dans le même temps ou diffusé des vidéos gênantes sur la collusion médias-politiques.

PM : Oui. Mais je me permets d’insister sur un fait : toutes ces initiatives qui procèdent de mouvements sociaux de fond n’ont pas encore trouvé de débouché politique. Je crois qu’on a tous un peu vécu sur le mythe qu’un pouvoir en place ne peut résister longtemps à des manifestations, occupations, assemblées populaires, mobilisations citoyennes, révélations compromettantes.

L’expérience politique de ces dernières années est que ce n’est pas tout à fait le cas. Et même lorsqu’il y a alternance, cela ne signifie pas nécessairement que les revendications que portent ces mouvements soient mieux représentées. Il y a donc une situation potentielle de danger avec des mouvements sociaux d’un côté qui se développent, bouillonnent, élaborent des propositions, et de l’autre un monde politique qui tourne en rond et continue sa petite musique sans que l’un n’arrive à embrayer sur l’autre.

Je ne dis pas que la Parti Pirate soit aujourd’hui en mesure d’être le débouché politique des ces mouvements. Ce serait très prétentieux et inexact. Mais je pense que c’est la direction dans laquelle nous devons aller. Pour moi, un des enjeux après les élections pour le Parti Pirate est de construire patiemment des liens solides avec ces mouvements, et d’autres, pour nourrir sa réflexion et son programme de l’expertise citoyenne qui s’y développe.

L’Europe semble bloquée par « la crise », une économie financiarisée injuste et incontrôlable et des mouvements identitaires de repli sur soi. Est-ce la bonne période pour « faire de la politique autrement” ?

CF : Plus que jamais, et il y a même urgence, tant que nous avons les moyens. La pauvreté, l’injustice amènent aux révoltes et aux guerres, et après il est beaucoup plus difficile d’agir.

DD : Si nous n’avons pas peur de nous-mêmes, si nous arrivons à nous regrouper autour de thèmes forts et précis, c’est déjà le cas en partie, tout est possible. Justement parce que nous sortons totalement des clivages et des raisonnements classiques, tous porteurs de repli.

PM : PLUS QUE JAMAIS. La crise financière et économique est d’abord une crise de la démocratie. La véritable question est moins de savoir quelles seraient les « bonnes » mesures à prendre que de savoir comment faire en sorte que les mesures qui sont prises soient voulues et soutenues par l’ensemble de la population ; en un mot : légitimes. J’ai écrit un billet à ce propos sur notre site de candidats ; je me permets d’y renvoyer.

Il a été dit que la France sous Sarkozy n’aura pas été spécialement brillante du côté d’Internet et des libertés. Votre avis ? Doit-on penser que vous accordez la même défiance au nouveau gouvernement en vous présentant ou bien est-ce au contraire pour le pousser à mettre en avant les thèmes que vous portez ?

CF : Les deux mon capitaine ! Si on peut interagir, aider à la réflexion tant mieux. Nous verrons bien. Personnellement, je n’ai guère confiance en ce nouveau gouvernement. Même si j’espère qu’il y aura moins de fracture sociale, j’ai bien peur que la notion de liberté et de partage leur échappe. Pierre Lescure, nommé pour la Hadopi, voyons, comment dire … Et que feront-ils des fichiers de citoyens, des caméras de surveillance, de la biométrie ?

DD : Sur la question des libertés individuelles et collectives, il n’y a aucune raison de laisser un blanc seing à la gauche socialiste. La nomination de Manuel Valls à l’Intérieur est assez claire: il n’y aura pas de rupture ou alors à la marge. J’ai en partie rejoint le PP pour travailler sur ces questions et c’est la raison pour laquelle avec Pierre Mounier, nous avons explicitement défendu notre point de vue dans notre profession de foi.


« Exiger que les procédures parlementaires de contrôle de services comme la Direction centrale du renseignement intérieur soient complètes et renforcées. Faire cesser les dérives d’une police politique au service de l’appareil d’Etat. Ouvrir le débat sur la privatisation du Renseignement (officines, mais pas seulement) et le jeu malsain entre « Services » et opérateurs de téléphonie (ex: fadettes, relevés téléphoniques, etc) / FAI. ». J’ai publié dans Le Monde une tribune sur le sujet.

PM : Pour ma part, je ne parlerai pas (encore) de défiance. Plutôt de méfiance. Le candidat devenu président ne s’est pas beaucoup engagé sur la question et il a même été en net retrait par rapport au programme de son propre parti. Les premiers signes qui ont été envoyés, les premières nominations, comme dit Carole, ne sont pas encourageantes. J’ai bien peur que ce gouvernement ait besoin d’un aiguillon qui constitue une menace électorale suffisamment importante pour qu’il se sente concerné par la question d’Internet et des libertés. On aura compris qui pourrait être cet aiguillon…

Vous donnez-vous le moindre objectif chiffré ou bien, comme disait De Coubertin, l’important ici c’est d’abord de participer car ça n’est qu’une première étape ?

CF : Comme Coubertin, c’est un galop d’essai !

DD : Un tour de chauffe, un moyen de s’aguerrir, d’expérimenter, de se compter, d’apprendre à se connaître, à partager, à travailler ensemble.

PM : C’est bien un galop d’essai, mais aussi un peu plus que cela : nous avons gagné une certaine visibilité dans l’espace public, du fait de la campagne électorale (il faut savoir que nous diffusons grâce à cela un spot télévisé visionné par tous les français, c’est absolument énorme comme caisse de résonance). Du coup, si, au moins dans certaines circonscriptions, nous faisons un score non négligeable, voire gênant pour d’autres formations politiques, cela va changer beaucoup de choses pour la suite. Bref, il y a un vrai enjeu en termes de résultats sur cette élection. Cela vaut le coup de se mobiliser.

Une fois les législatives passées, quel sera le prochain rendez-vous et comptez-vous personnellement poursuivre l’aventure avec le Parti Pirate ?

CF : Si le Parti Pirate continue sur la même lancée avec ouverture, transparence, liberté de chacun des membres, oui ! En 2014, il y a les municipales et surtout les européennes. Il devrait y avoir un programme commun européen, et là nous serons bien plus préparés !

DD : Le PP a vu dans ses rangs arriver de plus en plus de quadras et plus. On peut s’attendre à ce que le PP se dote bientôt d’une épine dorsale qui pourrait faire très mal. Connaissance des rapports de force + énergie bouillonnante = formule magique.

La prochaine étape sera donc interne: comment fusionner toutes ces énergies, les fédérer ? Ensuite, il faudra que le PP prenne part à la vie politique de manière constante, pas uniquement lors des échéances électorales. Pour ce qui est de mon implication, tout va dépendre des discussions et des orientations qui seront prises. Pour l’heure, comment dire, c’est bien parti, quelle aventure !

PM : Oui, j’ai très envie de continuer avec le Parti Pirate au delà de l’échéance. Il y a clairement une dynamique, un élargissement de la base militante, des perspectives de pouvoir faire bouger les choses, enfin !

En conclusion, dimanche 10 juin prochain, le « vote utile » c’est le Parti Pirate ?

CF : C’est le vote de ceux qui n’ont pas froid au yeux et qui arrêtent de penser « de toute façon, on ne peut rien faire ». Le Parti Pirate, c’est la reprise en main de la démocratie.

DD : Utile, heu… j’en sais rien. Protestataire et constructif, pirate et novateur, oui, vraiment.

PM : Le seul vote utile est celui qui est au plus proche des convictions de celui qui vote. que chacun s’informe et vote selon ses convictions. C’est tout ce que nous demandons.

Vous pouvez suivre nos trois candidats sur Twitter : Carole Fabre, Pierre Mounier et David Dufresne.

Affiche PP




De StarOffice à LibreOffice 28 années d’histoire

LibreOffice OpenOffice.org

Qu’on les aime ou qu’on les déteste, les suites bureautiques se sont imposées ces derniers lustres comme indispensables dans le paysage logiciel. La suite numéro un, Microsoft Office, est devenue une référence et un incontournable. En langage courant, on ne parle plus de présentations ou de transparents, on dit tout simplement « un PowerPoint ».

Microsoft Office n’étant pas disponible sur les systèmes libres comme Linux, il est évident qu’une alternative viable se devait d’exister. Vous la connaissez certainement, il s’agit d’OpenOffice. Et, depuis quelques mois, on entend parler de LibreOffice. Mais n’est-ce pas juste un changement de nom ? Tout cela est un peu confus.

J’avais déjà tenté de faire une courte clarification. Essayons de voir en détail ce qu’il en est.

Les débuts de StarDivision

Nous sommes en 1984. Un très jeune programmeur allemand fonde la société StarDivision afin de vendre son logiciel de traitement de texte StarWriter. Celui-ci est destiné principalement aux ordinateurs Zilog Z80 et Amstrad CPC. Nous sommes dans les tous débuts de l’informatique à destination du grand public. Ni Microsoft Office ni même Windows n’existent encore.

Après quelque temps, StarDivision adapte son logiciel aux systèmes DOS, OS/2. D’autres composants se rajoutent à StarWriter : StarBase, un logiciel de base de données, StarDraw, un logiciel de dessin vectoriel. Le tout est empaqueté sous le nom global de StarOffice, en faisant une des premières suites bureautiques.

Avec le support de Windows 3.1, StarOffice gagne un nouveau composant, StarCalc, un tableur.

StarOffice dans le giron de Sun

Faisons un bond en avant et propulsons nous en 1999. À cette époque, Microsoft règne sans partage sur les ordinateurs individuels grâce à Windows 95 et Windows 98, sans oublier Windows NT dans les entreprises. Dans ces dernières, Microsoft Office 97 s’est imposé comme la suite office indispensable. Son plus gros concurrent est… Microsoft Works ! Eh oui, Microsoft se paie le luxe d’être son propre concurrent et d’avoir deux suites bureautiques qui sont difficilement interopérables (utilisant des formats propriétaires différents).

Sun travaille sur son système d’exploitation Solaris et espère en faire un concurrent à Windows. Le problème est que Solaris ne dispose pas d’une suite bureautique et que chacun des 42.000 employés de Sun doit garder deux ordinateurs : un sous Solaris et un sous Windows pour faire tourner Microsoft Office.

Stratégiquement, avoir une suite bureautique sous Solaris est indispensable. Sun se met en chasse et rachète StarDivision pour 73.5 millions de dollars. Rien que le prix économisé dans les licences Microsoft (42.000 licences Windows + 42.000 licences Office) permettrait de rentabiliser l’achat en quelques années.

Sun travaille donc à partir de la suite StarOffice et la porte sous Solaris.

Naissance d’OpenOffice

À peine un an plus tard, en 2000, Sun se rend compte que le seul ennemi capable d’affaiblir la toute-puissance de Microsoft, alors à son apogée, est le monde Open Source. Et selon l’adage « Les ennemis de mes ennemis sont mes amis », Sun décide de doter la communauté OpenSource d’un concurrent à Microsoft Office.

Une version Open Source de StarOffice est donc libérée sous le nom OpenOffice, qui deviendra OpenOffice.org, le nom OpenOffice étant déjà déposé dans certains pays.

Derrière ce mouvement se cache bien entendu une stratégie marketing. Sun espère qu’OpenOffice gagnera le cœur des étudiants, des particuliers, des hackers mais que les entreprises souhaitant un support professionnel se tournent vers StarOffice. Certaines fonctionnalités de StarOffice ne sont d’ailleurs pas présente dans OpenOffice.

Cela a pour conséquence que toute personne souhaitant contribuer au code d’OpenOffice doit céder ses droits à Sun, afin que celui-ci puisse le réutiliser dans StarOffice.

Sun OpenOffice, l’incontournable

De 2001 à 2010, OpenOffice va devenir incontournable chez les libristes et les utilisateurs de système Linux. Sa gratuité est également un atout indéniable dans les entreprises et les services publics. Certains évangélistes du libre y voient un cheval de Troie pour introduire le libre un peu partout et en font une promotion éhontée.

Cependant, tout n’est pas rose. Le développement n’est pas très rapide. Les contributions ne sont pas toujours acceptées par Sun. Le logiciel, vieillissant, acquiert une réputation de lenteur et de non-ergonomie.

Microsoft Office, de son côté, fait des progrès fulgurants avec les éditions 2003 et 2007. Malgré un succès d’estime, OpenOffice peine à sortir du cadre des geeks barbus.

Lotus Symphony, IBM rentre dans la danse

IBM, géant de l’informatique, est célèbre pour n’avoir jamais compris l’importance du logiciel et de la micro-informatique. Inventeur du PC, ils n’ont pas perçu le marché pour ce type de machine et ont laissé Microsoft fournir le système d’exploitation DOS. Se rendant compte de leur erreur, ils tenteront d’imposer OS/2 sans jamais y parvenir.

La même histoire se répète avec les suites bureautiques. Se rendant compte de l’importance de ce type de logiciel, IBM produira Lotus Symphony, une suite bureautique pour DOS. Cette suite sera complètement abandonnée en 1992.

Ce n’est qu’en 2007, à la mode des carabiniers d’Offenbach, qu’IBM décidera de relancer dans une suite de productivité qui comportera son client mail Lotus Notes, très populaire en entreprise et détenteur du titre de logiciel le plus haï par ses utilisateurs. IBM va donc reprendre OpenOffice et en modifier l’interface afin de créer IBM Lotus Symphony.

IBM Lotus Symphony est synchronisé avec OpenOffice mais aucun code n’est contribué au projet. En ce sens, IBM est vu comme un mauvais joueur par la communauté.

Oracle Open Office, la fin d’une époque

Sun ne va pas très bien. Solaris n’a jamais réellement percé. Le matériel Sun, d’excellente facture mais extrêmement cher, voit une concurrence rude tirer les prix vers le bas. Beaucoup d’investissements ont été faits comme le rachat de MySQL. Des questions se posent. C’est alors qu’arrive Oracle.

Oracle est un géant de l’informatique qui a fait sa fortune sur la gestion des bases de données. Ils aimeraient avoir un peu plus d’expertises dans le matériel (afin de vendre des serveurs liés à leurs bases de données) et contrôler un dangereux concurrent OpenSource qui est de plus en plus populaire : MySQL, justement racheté par Sun.

En 2009, Oracle rachète donc Sun pour 7,4 milliards de dollars. Seulement, Oracle n’a que faire de StarOffice ou d’OpenOffice. C’est le cadeau bonus venu avec l’achat et ça les ennuie plus qu’autre chose. De plus, contrairement à Sun, Oracle a montré de nombreuses fois qu’il se poste en ennemi acharné du logiciel libre.

En 2010, inquiets, les membres de la communauté OpenOffice créent donc la Document Foundation, une fondation sans but lucratif dont le but est de promouvoir et de continuer le développement d’OpenOffice, sans dépendre d’Oracle.

LibreOffice, la première suite communautaire

Il ne reste qu’un petit détail à régler : le nom, OpenOffice, appartient toujours à Oracle. La fondation fait une demande officielle à Oracle, Ô Oracle, vous qui êtes si puissant, si beau, si fort et qui n’avez que faire de ce misérable nom, cédez le nous et vous serez mille fois béni.

C’est à ce moment que les requins de chez Oracle lèvent les sourcils. Si ce nom est demandé, il a peut-être une certaine valeur. IBM met son grain de sel : si Oracle cède le nom à la fondation, IBM peut très bien ne plus pouvoir intégrer le code d’OpenOffice dans son Lotus Symphony qui est propriétaire, la Document Foundation soutenant des licences cancérigènes comme la LGPL !

Oracle refuse donc de céder le nom. La mort dans l’âme, la Document Foundation décide d’accepter la mort d’OpenOffice et de faire renaître le projet sous le nom LibreOffice.

Au final, ce changement de nom se révèle bénéfique. Comme le passage de XFree86 à X.org, il marque la transition. L’engouement communautaire est tel qu’en moins d’une année LibreOffice gagne des dizaines de contributeurs, un nombre impressionnant de lignes de code est changé et une première conférence rassemblant la communauté à lieu à Paris en octobre 2011. Conférence au cours de laquelle il est annoncé notamment le désir de porter LibreOffice sur Androïd. Les participants assistent également à une première démonstration de LibreOffice Online, une version web de la suite bureautique.

Apache Open Office, papy fait de la résistance

Mais il serait faux de penser qu’Oracle en resterait là. Tout aurait pu être tellement simple. Mais il ne faut jamais sous-estimer la nuisance qu’une confusion dans l’esprit du public peut apporter.

Peu après l’annonce de la création de LibreOffice, Oracle décide de donner le projet OpenOffice, y compris le nom, à la fondation Apache. À charge pour elle de continuer le développement de ce projet.

À la Document Foundation, tout le monde est un peu surpris. Surtout que la licence Apache choisie permet à LibreOffice de reprendre du code de chez Apache OpenOffice mais le contraire n’est lui pas possible. En juillet 2011, IBM annonce sa volonté de contribuer au projet Apache OpenOffice et, début 2012, annonce même arrêter complètement IBM Lotus Symphony pour se concentrer uniquement sur Apache OpenOffice.

OpenOffice ou LibreOffice, lequel choisir ?

Pour beaucoup, Apache OpenOffice n’est donc qu’un homme de paille, un projet IBM, qui sert les intérêts d’IBM et non ceux de la communauté. Après quelques mois, il faut se rendre à l’évidence: le projet Apache OpenOffice dispose de dix fois moins de contributeurs. Comparer le nombre de modifications du code entre les deux projets est également sans appel : LibreOffice est un projet libre, communautaire et OpenOffice est une anecdote poussée à contre-cœur.

La majorité des distributions Linux sont d’ailleurs passées à LibreOffice. Des grands projets se mettent en place: la région Île-de-France travaille à offrir un LibreOffice intégré avec sa solution Cloud à tous ses étudiants. Un écosystème de sociétés a rejoint la Document Foundation afin d’offrir du support professionnel sur LibreOffice, depuis les grands pontes comme Suse, partie de Novell, au petites structures comme Lanedo, employeur de votre serviteur.

Si l’offre est là, la demande est elle en pleine confusion. Des clients de Sun, payant pour le support d’OpenOffice, se sont retrouvés sans maintenance du jour au lendemain. Le changement de nom fait craindre une migration lente et coûteuse, beaucoup ne comprenant pas qu’il s’agit essentiellement du même logiciel.

Si l’avenir de LibreOffice semble radieux, beaucoup ne le saisissent pas encore. Mais, maintenant, si jamais on vous pose la question de savoir la différence entre OpenOffice et LibreOffice, vous pourrez répondre : « Assieds-toi, je vais te raconter une histoire… ».




Comment je suis tombé dans la marmite de l’open source quand j’étais petit

Les règles d’un jeu, les règles du jeu, ne sont pas inscrites dans le marbre. Et il est toujours possible, pour les plus audacieux, de faire un pas de côté pour les améliorer.

Telle est l’expérience fondatrice de Jeremy enfant au contact de son ami Bruce, véritable petit hacker en herbe[1].

On pourra certes objecter que cet état d’esprit bidouilleur et inventif n’a pas attendu l’open source pour exister mais il s’en trouve fortement stimulé par les potentialités nouvelles qu’offre Internet.

Jeremy Mates - CC by

Le jour où mon esprit devint open source

The day my mind became open sourced

Phil Shapiro – 20 avril 2012 – OpenSource.com
(Traduction Framalang : Adrien Dorsaz, e-Jim et Goofy)

Je me souviens très bien du jour exact où mon esprit est devenu open source. C’était un jour frais et ensoleillé de novembre 1973. Après les cours de l’école primaire, j’ai appelé mon meilleur ami, Bruce Jordan, et je lui ai demandé : « Est-ce que je peux passer jouer maintenant ? ». Bruce m’a répondu : « Bien sûr ! ». J’ai chevauché ma bicyclette rouge Schwinn (qui n’avait qu’une vitesse) et j’ai roulé comme un fou sur les trois kilomètres jusque chez Bruce. Je suis arrivé avec le souffle coupé, mais très heureux.

C’était plaisant de jouer avec Bruce, parce qu’il était toujours en train d’inventer de nouveaux jeux à jouer à l’intérieur et également à l’extérieur. Chez lui, on ne s’ennuyait jamais une seconde. C’est ainsi que, quand nous nous sommes assis pour jouer au Scrabble ce jour-là, Bruce a spontanément suggéré : « Prenons chacun 10 lettres au lieu de 7. Ça va beaucoup améliorer le jeu ». J’ai protesté : « Mais les règles écrites sur la boîte du jeu disent qu’on est censé prendre 7 lettres. »

Bruce a rapidement répondu : « Ce qui est imprimé sur la boîte, c’est pas des règles. C’est juste des suggestions de règles du jeu. Toi et moi, on est libres de les améliorer ». J’étais un peu stupéfait. Je n’avais jamais entendu une telle idée auparavant. Je lui ai rétorqué : « Mais les règles sur la boîte ont été écrites par les adultes qui sont plus intelligents que nous, non ? ».

Bruce m’a alors expliqué avec aplomb : « Ceux qui ont inventé ce jeu ne sont pas plus intelligents que toi ou moi, même si ce sont des adultes. Nous pouvons trouver de meilleures règles qu’eux pour ce jeu. De bien meilleures règles. »

J’étais un peu sceptique, jusqu’à que Bruce me dise « écoute, si ce jeu n’est pas beaucoup plus amusant dès les 5 premières minutes, nous retournons aux règles écrites sur la boîte ». Cela m’a semblé un bon moyen de procéder.

Et les règles du Scrabble de Bruce rendaient effectivement le jeu bien plus amusant. En pleine partie, je ne pus m’empêcher de lui demander : « si les règles du Scrabble peuvent être améliorées, est-ce que les règles d’autres jeux peuvent aussi être améliorées ? ».

Bruce me répondit « Les règles de tous les jeux peuvent être améliorées. Mais ce n’est pas tout. Tout ce que tu vois autour de toi et qui a été conçu par l’esprit humain peut être amélioré. Tout peut être amélioré ! »

À ces mots, un éclair m’a traversé l’esprit. En quelques secondes, mon esprit a basculé vers l’open source. À ce moment précis, j’ai su quels étaient le but de ma vie et ma destinée : chercher autour de moi les choses qui peuvent être améliorées, puis les améliorer.

Lorsque je suis remonté sur mon vélo Schwinn pour rentrer à la maison ce soir-là, mon esprit était enivré d’idées et de possibilités. J’ai plus appris de Bruce ce jour-là que je n’avais appris durant toute une année d’école. Vingt-cinq ans avant que l’expression Open Source ne soit formulée pour la première fois, Bruce Jordan a ouvert les sources de mon esprit. Je lui en serai éternellement reconnaissant.

Et alors que je roulais vers chez moi, je pris la résolution que durant ma vie, je concentrerai mon énergie à élargir les possibilités d’apprendre en dehors du cadre scolaire, parce que les apprentissages et les réalisations les plus significatives surviennent hors de l’enceinte de l’école.

Actuellement, je travaille dans une bibliothèque publique dans la région de Washington DC, et chaque jour, je discute avec des enfants. De temps en temps, je croise des élèves dont l’esprit est réceptif aux grandes idées. Lorsque cela m’arrive, je plante de petites graines dans leur esprit, et les laisse tracer leur route. Il leur revient de cultiver ces graines. Mon rôle se limite à planter des graines d’idées dans leur esprit. Le leur, c’est d’observer les germinations de ces graines, et de choisir de les arroser ou non.

Bruce Jordan m’a enseigné une autre leçon importante. La même année, il m’a demandé si je voulais jouer au Frisbee Baseball. « C’est quoi le Frisbee Baseball ? » demandai-je avec curiosité. Bruce répondit alors : « je ne sais pas, mais ça a l’air d’être un jeu génial. Nous allons créer les règles en marchant vers le terrain de baseball ».

Sans surprise, Bruce inventa les règles du Frisbee Baseball alors que nous parcourions le bloc qui nous séparait du terrain. Et nous avons joué avec grand plaisir, jusqu’à ce que l’obscurité nous empêche de voir le Frisbee. Ce que j’ai appris de Bruce ce jour-là, c’est de ne pas avoir peur d’aller là où mon instinct me dit qu’il y a de bonnes choses. Bruce était persuadé que nous allions nous éclater en jouant au Frisbee Baseball. Et il avait raison.

Le mouvement Open Source concerne les logiciels, mais il est loin de se limiter à ce domaine. Il s’agit de considérer les créations et les idées qui naissent du génie humain avec optimisme. Tout peut être amélioré, de fond en comble. Tout ce qu’il nous faut, c’est une dose de créativité et la volonté de consacrer notre esprit à une tâche donnée.

On se lance ? Au départ, les règles de tous les jeux sont imprimées sur la boîte, mais ces règles ne sont que des suggestions. On peut les améliorer, et il faudrait les améliorer à chaque fois que c’est possible.

Notes

[1] Crédit photo : Jeremy Mates (Creative Commons By)




Les 20 personnalités préférées de l’Internet Libre

L’excellent quotidien d’information britannique The Guardian (que nous traduisons souvent ici) a récemment proposé une liste restreinte et subjective de vingt « fighters for Internet freedom ».

Stallman, Torvalds, Wales, Lessig, Assange, Sunde, Berners-Lee, Anonymous… Il y en a que nous connaissons bien ici. D’autres moins, mais c’est l’occasion de les découvrir[1].

Certains lecteurs regrettent ainsi par exemple l’absence de Cory Doctorow, Eben Moglen ou Mitchell Baker.

Qu’en pensez-vous ? Qui rajouteriez-vous ? Et pourquoi aucun français ni francophone ?

D’ailleurs s’il fallait faire une liste nationale vous choisiriez qui ?

(Petite liste alphabétique qui s’édite en fonction des commentaires : Philippe Aigrain, Jean-Pierre Archambault, Benjamin Bayart, Stéphane Bortzmeyer, Guillaume Champeau, Frédéric Couchet, Laurent Chemla, Loïc Dachary, Florence Dévouart, François Elie, Fabrice Epelboin, Roberto Di Cosmo, Christophe Espern, Sam Hocevar, Antoine Moreau, Tristan Nitot, Valentin Lacambre, Bernard Lang, Olivier Laurelli, Jean-Marc Manach, Jean Peyratout, Bernard Stiegler, Thierry Stoehr, Jérémie Zimmermann…)

Un billet à rapprocher de celui qui rendait hommage à quelques figures marquantes du monde du Libre : Sur la place des grands hommes du logiciel libre.

Aaron Brown - CC by-nc

Top 20 du Guardian : ceux qui se battent pour un Internet libre

The Guardian’s Open 20: fighters for internet freedom

Des hommes politiques et professeurs aux informaticiens en passant par le premier programmeur, les champions de l’Internet libre. Qui avons-nous oublié ? Faites votre propre liste ici.

Anonymous

Légions, partout
(Wikipédia)

Le cri de ralliement des Anonymous – « Nous sommes Anonymes. Nous sommes Légion. Nous ne pardonnons pas. Nous n’oublions pas. Redoutez-nous » (We are Anonymous. We are Legion. We do not forgive. We do not forget. Expect us) – n’est pas du goût de tout le monde, mais est certainement très connu. À l’inverse de son groupe frère Lulzsec, le collectif Anonymous est vraiment fragmenté et sans leader et a donc pu continuer malgré les arrestations du FBI qui ont paralysé Lulzsec. Les pirates ont récemment mis brièvement hors ligne le site web du ministère de l’intérieur anglais et certains des sites web les plus visités au monde en protestation contre les propositions de lois de surveillance d’internet.

Jacob Appelbaum

Militant, chercheur et développeur, Projet Tor
(Wikipédia)

Appelbaum, un chercheur en informatique à l’Université de Washington, est l’un des principaux membres du projet Tor, qui permet de garantir l’anonymat de milliers d’internautes à travers le monde. Egalement connu comme le principal défenseur du groupe, Appelbaum a attiré l’attention du public après avoir été arrêté et fouillé à de nombreuses reprises par des douaniers américains, qui lui ont confisqué son matériel électronique, après qu’il a défendu Julian Assange pendant une conférence.

Julian Assange

Éditeur en chef, WikiLeaks
(WikipédiaFramablog)

La force motrice derrière Wikileaks, Assange a coordonné la publication de documents secrets concernant les guerrres en Afghanistan et en Irak, de fichiers de prisonniers de la Baie de Guantanamo, et de 250 000 câbles diplomatiques. Assange est quelqu’un qui divise l’opinion, à cause des nombreuses polémiques qui l’entourent mais malgré cela (ou peut-être grâce à cela), il est sûrement le chef de file du mouvement pour un Internet libre et un interlocuteur important.

John Perry Barlow

Co-fondateur, Electronic Frontier Foundation
(Wikipédia)

Fondée en 1990, l’EFF se décrit elle-même comme « la première ligne de défense » lorsque les libertés numériques sont menacées. Grâce à un mélange d’action directe, d’actions en justice et de lobbying dans le milieu politique, le groupe défend la liberté d’expression et se bat contre la surveillance et les problèmes de propriété intellectuelle. L’ancien parolier des Grateful Dead est un des membres fondateurs de l’EFF et a depuis été l’un de ses plus importants porte-parole.

Sir Tim Berners-Lee

Inventeur du world wide web
(WikipédiaFramablog)

Étant l’inventeur d’une des parties les plus visible de l’Internet (le world wide web), la place de Berners-Lee dans l’histoire de l’Internet était déjà réservée. Il ne s’est cependant pas reposé sur ses lauriers: il joue un rôle important dans la promotion de l’open data jusque dans les hautes sphères des gouvernements à travers le monde, il fait également campagne contre un internet à « deux vitesses ». Il s’est aussi récemment excusé pour les deux slashes au début d’une adresse web (http://), reconnaissant qu’ils sont «?complètement inutiles?».

Heather Brooke

Journaliste et militante
(Wikipédia)

Militante pour la liberté d’information et contre la surveillance des états, Heather Brooke a eu un rôle capital dans les procès qui ont permis de réveler les abus dans le système de dépense du premier ministre britannique. Durant ses recherches sur la culture hacker et l’activisme en ligne, Brooke s’est procuré les câbles diplomatiques de Wikilieaks et a été l’une des journalistes à travailler sur le projet. Elle siège au conseil de l’Open Rights Group et elle est professeur en résidence à la City University de Londres.

Bram Cohen

Scientifique en chef, BitTorrent
(Wikipédia)

Bram Cohen n’est pas un homme populaire à Hollywood. Cohen a non seulement inventé la technologie du peer-to-peer qui est derrière le réseau BitTorrent, mais a également mis au point le logiciel qui permet aux utilisateurs de partager leurs fichiers. La technologie revendique plus de 100 millions d’utilisateurs actifs chaque mois, téléchargeant à peu près 400 000 fichiers chaque jour – quelques-uns sont légaux, mais pour beaucoup, il s’agit de films, musiques et programmes télé protégés par le droit d’auteur.

Rickard Falkvinge

Fondateur, le parti Pirate
(WikipédiaFramablog)

Falkvinge a fondé le parti Pirate Suédois en 2006 afin de se concentrer sur la réforme des lois sur le droit d’auteur, les brevets et le partage de fichiers. Le parti a maintenant une présence souvent marginale dans 22 pays, voire significative en Suède, où il dispose de deux députés européens, ainsi qu’en Allemagne, où il est la troisième force politique du pays.

Birgitta Jonsdottir

Membre du Parlement, The Movement, Islande
(Wikipédia)

Une poètesse et militante devenue femme politique, Jonsdottir est élue au parlement islandais depuis 2009. Principalement connue pour son rôle dans la diffusion de la vidéo WikiLeaks Collateral Murder au grand public, Jonsdottir a également eu un rôle prépondérant dans l’effort qu’a fait l’Islande pour être un paradis de la liberté d’expression, et c’est l’une des plaignantes dans les poursuites contre le gouvernement américain concernant les pouvoirs de surveillance que permet la loi NDAA.

Dr Susan Landau

Chercheur en cyber-sécurité, Membre de Guggenheim
(Wikipédia)

Susan Landau est professeur invitée du département de sciences informatiques de l’Université d’Harvard avec plus de 30 ans de publications sur la cyber-sécurité, la surveillance et la cryptographie derrière elle. Elle milite pour le respect de la vie privée des utilisateurs et dénonce les systèmes de surveillance installés sur les canaux de communication. Elle combat également pour la cause des femmes dans les sciences, et dirige la mailing list ResearcHers. Elle a gagné le prix Women of Vision social impact en 2008.

Lawrence Lessig

Fondateur, Creative Commons
(WikipédiaFramablog)

Tandis que que beaucoup d’hacktivistes se contentent simplement d’ignorer les lois et en risquent donc les conséquences, Lawrence Lessig a suivi une approche plus douce, en introduisant un type de licence qui autorise le partage de contenu sans crainte de poursuites. Les personnes qui créent des œuvres qui devraient normalement être soumises au droit d’auteur peuvent utiliser les licences Creative Commons (CC) qui autorisent une ré-utilisation libre, en y adjoignant une clause d’usage non-commercial ou de non-modification s’ils le souhaitent. Plus de 100 millions d’images sont déjà disponibles sur internet sous licences Creative Commons.

Ada Lovelace

Programmeuse
(Wikipédia)

Ada Lovelace, morte en 1852, sert d’inspiration à un internet libre. Lovelace travaillait avec Charles Babbage sur sa machine analytique, a écrit certains des premiers programmes informatiques, et elle est donc considérée comme la première programmeuse d’ordinateur. À l’opposé de Babbage, elle avait compris le rôle que pourraient jouer les ordinateurs pour faire de la musique, de l’art et plus encore. Ces dernières années, le jour Ada Lovelace est devenu une institution sur Internet, promouvant le rôle des femmes dans les sciences et technologies, et modifiant la vision que l’on a d’elles dans les médias.

Alex MacGillivray

Conseiller Général, Twitter
(Wikipédia)

Alex MacGillivray, l’avocat général de Twitter, est celui a qui l’on attribue le mantra de l’entreprise « la branche liberté d’expression du parti de la liberté d’expression » (the free-speech wing of the free-speech party), et a joué un rôle important dans les efforts qu’a faits le site pour rester le plus transparent possible sans pour autant se rendre hors-la-loi. Ses récents efforts en vue de limiter la censure non plus au niveau planétaire mais pays par pays, ont d’abord provoqué une fronde mais ont finalement été vus par beaucoup comme une façon habile de n’adopter que le minimum des restrictions exigées par la législation.

Clay Shirky

Ecrivain, professeur assistant à l’Université de New York
(WikipédiaFramablog)

Clay Shirky a été l’un des premiers ardents défenseurs du crowdsourcing, de la collaboration et de l’aggrégation de contenus et du journalisme en ligne, et donc des institutions ouvertes nécessaires à leur développement. Shirky encourage des institutions à se remettre en question dans un monde toujours plus connecté, et il est crédité comme l’une des personnes qui a inspiré la politique de journalisme ouvert du Guardian.

Richard Stallman

Fondateur, Free Software Foundation
(WikipédiaFramablog)

L’un des défenseurs les plus ardents du logiciel libre (et non open source, terme qu’il déteste), Stallman fait le tour du monde afin de montrer les avantages qu’apportent des logiciels libres d’utilisation et libres de modification. Cependant, Stallman est davantage qu’un porte-parole, il est également l’un des principaux programmeurs de GNU (un système d’exploitation qu’il a mis au point).

Peter Sunde

Co-foundateur, Pirate Bay
(WikipédiaFramablog)

Peter Sunde était une des personnes responsables de Pirate Bay, un moteur de recherche permettant l’accès à plus de 4 millions de fichiers sur le réseau BitTorrent, et un portail clé pour toute personne échangeant des fichiers. Le site a longtemps évité les tentatives de la justice pour l’interdire, mais Sunde est déjà passé à autre chose, en fondant Flattr, un site de micro-paiement qui a pour but de rétribuer financièrement et volontairement les sites indépendants et les blogs. Pendant ce temps, Pirate Bay prétend mettre au point des serveurs embarqués sur des drones, afin de s’assurer que le gouvernement ne sera jamais capable de les déconnecter.

Aaron Swartz

Programmeur, militant
(Wikipédia)

Si un vendeur sur un marché tunisien a lancé le printemps arabe, il est peut être juste de créditer Aaron Swartz d’avoir lancé le «?printemps universitaire?», si les accusations le concernant s’avèrent fondées. Swartz est accusé d’avoir téléchargé plus de 4 millions d’articles universitaires du site JSTOR afin d’améliorer l’accès à la littérature savante. Après son inculpation, et alors qu’il se dit innocent, d’autres personnes ont commencé à partager des milliers de papiers sur le net sans aucune permission. Maintenant, l’accès aux publications universitaires est en train d’être libéré par des moyens légaux et de plus en plus rapidement, avec comme principal appui financier le Wellcome Trust, et certains ministres du Royaume Uni qui soutiennent maintenant le libre accès.

Professeur Sebastian Thrun

Fondateur, Udacity
(Wikipédia)

Le professeur Thrun n’était pas un homme qui avait à se soucier de son prochain salaire?: en tant que professeur permanent en intelligence artificielle à la prestigieuse Stanford University, il avait un poste à vie. Non satisfait d’enseigner à un nombre restreint d’étudiants, il a donné accès à ses cours en ligne gratuitement, à travers un site nommé Udacity. La première année, plus de 140 000 étudiants se sont inscrits à ses cours.

Linus Torvalds

Architecte en chef, Linux
(WikipédiaFramablog)

Pour ceux qui ne seraient pas désireux d’avoir à choisir entre Microsoft Windows et Apple Mac OSX, une alternative libre existe, qui s’accompagne d’une valeur ajoutée (pour les programmeurs) : elle est ouverte aux modifications et personnalisations, cette alternative c’est Linux. Linus Torvalds est un développeur Finno-Américain qui a démarré ce projet, et a depuis lors montré la voie à de nombreuses distributions en tant que défenseur de l’open source et des logiciels libres.

Jimmy Wales

Fondateur et membre du Board, Fondation Wikimedia
(WikipédiaFramablog)

Jimmy Wales est l’homme derrière Wikipédia, la plus grosse encyclopédie au monde (avec 21 millions d’articles), rédigé exclusivement par des bénévoles, grâce à son système d’édition ouvert. De plus, Wales a récemment gagné en légitimité en matière d’Internet ouvert en encourageant le comité du site à sortir de sa politique habituelle de neutralité afin d’organiser un black-out d’une journée de la version anglophone du site, en réponse à la proposition de loi SOPA contre la piraterie.

Qui avons-nous oublié ? Faites-le nous savoir en proposant vos propres choix dans les commentaires.

Notes

[1] Crédit photo : Aaron Brown (Creative Commons By-Nc)