Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




Les 10 ans de Wikipédia : une occasion médiatique manquée pour le logiciel libre ?

Wikimedia Italia - CC by-saWikipédia célèbre ses dix ans et je me réjouis bien entendu d’observer que l’évènement bénéficie légitimement d’une large couverture médiatique.

En quantité mais aussi et surtout en qualité, car il semble définitivement révolu le temps de l’incompréhension voire d’une certaine hostilité de la grande presse vis-à-vis de l’encyclopédie. Avoir des articles dédiés (et éclairés) dans les versions papiers du Monde ou de Libération permet aussi de mesurer le chemin parcouru[1].

Vous me voyez cependant contraint ici de faire, l’espace d’un court instant, mon schtroumpf grognon au milieu du concert de louanges. Parce que lorsque l’on regarde un peu dans le détail la revue de presse francophone occasionnée par cette date anniversaire, on constate que le logiciel libre est totalement occulté.

Vous me direz que ce n’est ni le sujet, ni le lieu, ni le moment. Vous me direz qu’il est normal que les journalistes adoptent l’angle de l’interview des fondateurs, du témoignage de collaborateurs, ou du « Wikipédia, comment ça marche ? » (ou, mieux encore, « comment ça marche, alors que ça ne devrait pas marcher ! »). Vous me direz aussi que je pêche par égocentrisme libriste. Mais de là à ne jamais évoquer le logiciel libre…

Il est vrai aussi que cette affirmation péremptoire repose sur une méthode sujette à caution. J’ai ouvert à ce jour tous les articles francophones glanés sur le Web qui me semblaient parler des 10 ans de Wikipédia, en cherchant rapidement l’occurrence « libre » dans le corps du texte. Je suis parfois tombé sur « librement diffusable » ou « encyclopédie libre » mais jamais sur « logiciel(s) libre(s) » (ni « licence libre » d’ailleurs).

À une exception près, l’article du Monde (odieusement pompé ici) où l’on peut lire ceci :

Un projet un peu fou : concevoir une encyclopédie en ligne, gratuite, rédigée par des internautes, à laquelle tous, experts ou néophytes, pourraient contribuer, en créant, complétant ou corrigeant les articles grâce à un outil inspiré des logiciels libres, le « wiki  », permettant un travail collaboratif.

Oui, bien sûr, Wikipédia repose sur le logiciel libre Mediawiki, mais ce n’est pas, loin de là, le seul point commun et la seule filiation possible.

« Au commencement était Nupedia… », nous rapelle 01net. Tandis que Jimmy Wales soigne sa légende dans cette vidéo : « J’ai écrit Hello World et j’ai invité les gens à participer ». Factuellement parlant, c’est certainement bien là le début de cette extraordinaire aventure.

Mais cela n’aurait été ni scandaleux ni inopportun de remonter encore un peu plus loin, de remonter aux sources – si j’ose dire – en affirmant, pourquoi pas, que : « Au commencement était le logiciel libre… » (ceci dit, je vous l’accorde, au commencement était Internet aussi !).

Je ne prétends évidemment pas que Wikipédia n’aurait jamais existé sans le logiciel libre. Mais il est indéniable que son expérience, ses méthodes, ses outils (techniques et juridiques), ses combats (contre le copyright, les formats fermés, etc.) lui ont profité et ont participé à son succès. Dans un contexte historique où l’on dresse des bilans et expose la genèse, c’est dommage de ne pas l’avoir cité au moins une seule fois, cela aurait pu mettre la puce à l’oreille à de nombreux lecteurs lambdas.

La présidente de Wikimedia Fance, Adrienne Alix, a eu la bonne idée de récolter les témoignages de quelques pionniers présents aux tous débuts du projet. Morceaux choisis :

« À l’époque, on était en plein dans le haut de la vague du mouvement open source, et cette communauté de bénévoles créant une encyclopédie libre correspondait parfaitement à l’esprit de ce mouvement open source. » (Buzz)

« Wikipédia faisait déjà sensation dans le milieu Libre, projet titanesque qui faisait des petits dans le monde entier. » (Bobby)

« Wikipédia n’était à l’époque pas très connue du grand public mais on en parlait beaucoup dans le milieu du logiciel libre (…) C’est l’idée de transposer les concepts du logiciel libre à d’autres domaines, en dehors de l’informatique, que je trouvais séduisante. » (Polletfa)

« Le mouvement du logiciel libre partage lui aussi des connaissances, il manquait un outil pour le savoir d’une manière générale. » (Hashar)

« Venant du logiciel libre et du monde de l’informatique, j’étais idéologiquement et pratiquement prédisposé à aimer Wikipedia. Trouver Wikipédia formidable allait donc de soi pour moi (…) Je me suis investi plus car j’y ai vu rapidement la promesse de voir les principes du logiciel libre dépasser le cadre de l’informatique (…) La motivation était donc avant tout politique. » (Kelson)

« A la fois partager mes connaissances mais aussi encourager l’esprit du libre, du gratuit, par opposition à la logique financière. Je suis, bien évidemment, un grand défenseur des logiciels libres, et de la libre diffusion de la culture et de l’information. Les droits d’auteur sont une notion dépassée et surclassée par les technologie de l’information ! » (Tonnelier)

Je précise que nous ne sommes pas le seuls à souligner cette filiation, puisque même l’article Wikipédia de Wikipédia le dit 😉

Wikipédia vise à être une encyclopédie libre, ce qui signifie que chacun est libre de recopier l’encyclopédie, de la modifier et de la redistribuer. Cette notion de contenu libre découle de celle de logiciel libre, formulée avant Wikipédia par la Free Software Foundation.

Par ses objectifs et son fonctionnement, le projet Wikipédia s’inscrit dans une série de filiations culturelles dont le concept du copyleft, inventé par Don Hopkins et popularisé par Richard Stallman de la Free Software Foundation, par lequel un auteur autorise tout utilisateur à copier, modifier et distribuer son œuvre, mais aux mêmes conditions d’utilisation, y compris dans les versions modifiées ou étendues, ainsi que la pratique du travail collaboratif sur Internet, développé notamment chez les informaticiens par les adeptes du logiciel libre.

Qu’un journaliste ait bien compris ce lien fort entre Wikipédia et logiciel libre mais l’ait ignoré par manque de place ou parce qu’il le jugeait secondaire, cela m’attriste mais c’est son choix au demeurant tout à fait respectable. Mais Il y a une autre hypothèse, celle du journaliste non informé sur qui l’on ne risque pas encore de pouvoir compter.

Ni sentiment d’ingratitude, et encore moins de jalousie, juste une pointe de frustration pour ceux qui, comme moi, travaillent à faire la promotion du logiciel libre en France et en Navarre. Sur ce, pas de quoi en faire un fromage, et je m’en retourne faire la fête avec mes amis wikipédiens 😉

Avant je disais : « Wikipédia, c’est comme un logiciel libre mais pour les encyclopédies ». Désormais je vais privilégier la formule : « Un logiciel libre, c’est comme Wikipédia mais pour les logiciels ».

Notes

[1] Crédit photo : Wikimedia Italia (Creative Commons By) – « Tieni accesa Wikipedia » – Il est remarquable de constater que les trams du centre ville de Milan ont participé à la campagne de dons en offrant des tarifs préférentiels à l’association Wikimedia Italia.




Le long chemin du Libre Accès au Savoir à l’Université

Liber - CC by-saLa question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever[1].

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition : « chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ». Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inacessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT). Mais étonnament, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la techologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisament convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlrement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA.

Notes

[1] Crédit photo : Liber (Creative Commons By Sa)




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Des prothèses libres pour mieux vivre

OpenProtheticsProject - CC-By-SA

Dans notre exploration de la « culture du libre » et de son expansion, nous avons déjà longuement parlé d’une encyclopédie libre, d’un atlas géographique communautaire, d’un long-métrage d’animation insurgé contre l’avidité d’héritiers ayant droit, d’un opéra libre illustré en BD, du mouvement des bidouilleurs d’électronique libre, et même d’un concept de téléphone portable réaliste et novateur, à peine en avance sur son temps, émanant d’un forum sur Internet…

Nous continuons aujourd’hui cette exploration avec un projet quelque peu insolite : l‘Open Prosthetics Project, ou littéralement « Projet pour des Prothèses Libres ». Au regard de l’éthique propre à la profession médicale, on pourrait presque s’étonner que le libre n’y soit pas encore en pointe, en particulier si l’on oppose le fait que les bourses du monde entier s’y soient déjà mises. Toutefois, si les logiciels libres dédiés commencent à arriver dans ce secteur, il était moins évident d’afficher son optimisme quant au matériel médical.

Et pourtant, avec le foisonnement et la créativité propre aux projets libres, ouverts à tous et montés sur Internet, l’OPP remporte progressivement son pari de faire évoluer le monde des prothèses, passant d’une assistance en plastique gris à un carnaval de fonctionnalités intégrées à ce qui devient alors un atout pour son porteur.

Enfin, au delà du sujet de fond, cette traduction d’OpenSource.com (effectuée par Framalang) est également un témoignage candide mais juste de la réussite d’un projet, a priori pas grand public, dans le rassemblement d’une communauté en ligne de contributeurs.

Se prendre au jeu des prothèses libres

Getting hooked on open source prosthetics

Jason Hibbets – 3 novembre 2010 – OpenSource.com
Traduction Framalang : Zitor, RaphaelH, Goofy, Siltaar

Il y a quelques mois, je me suis posé la question : Est-ce que le libre peut permettre la création de meilleures prothèses ? J’avais aujourd’hui l’intention de revenir sur le sujet pour constater les progrès accomplis par le projet. Lors de la rédaction du premier article, j’avais appris que les développeurs principaux du projet éprouvaient des difficultés avec les outils de collaboration et les multiples projets disséminés sur le web. Qu’ont-ils fait pendant ces derniers mois afin de se regrouper et de focaliser les efforts et la motivation dans la bonne direction ? C’est ce que nous allons découvrir.

L’Open Prosthetics Project (OPP) est maintenant plus organisé, et prêt à encourager une collaboration mondiale autour de leurs efforts. Ils utilisent le site principal comme un portail permettant d’orienter les visiteurs vers les différentes possibilités de participation. Mais ce n’est pas tout. L’OPP utilise également un wiki pour héberger les différents projets actifs, ainsi qu’un réseau social personnalisé pour la communication et le partage d’informations.

C’est la participation de ses membres qui définit une communauté. Une des meilleures façons d’inciter les gens à participer est de fournir une liste de choses à faire. Focaliser l’énergie des gens sur un sujet qui les passionne, ou demander de l’aide à ceux qui ont les compétences spécifiques nécessaires pour atteindre un but en particulier. Le projet OPP a travaillé sur la façon de présenter les différentes façons d’aider, et a astucieusement détaillé sur son site dans quels domaines un besoin a été défini. Que vous soyez un nouveau ou un habitué de la communauté, il est facile de comprendre par où commencer. Sur leur site web, on peut participer très facilement, que ce soit en tant qu’utilisateur, donateur, rédacteur de demandes de subventions, fournisseur de services, chercheur ou membre de l’équipe juridique.

Je ne peux terminer cet article sans mentionner un projet qui a retenu mon attention : Pimp my arm (littéralement Arrange ton bras). Que diriez-vous d’une prothèse qui pourrait diffuser de la musique et des vidéos ? Envoyer et recevoir des SMS ou se connecter en Bluethooth ? Pimp my arm est le projet où les bénévoles et les gens qui ont des besoins spécifiques pour leur prothèse peuvent échanger leurs idées et envisager des solutions.

Je pense que c’est un endroit où le brassage d’idées peut profiter d’expertises et d’intérêts variés, en réalisant ainsi des progrès rapides dans le domaine des prothèses libres. C’est le genre de projet qui permet à des bénévoles (n’ayant pas nécessairement besoin d’une prothèse) de mettre en pratique leurs compétences et leur passion pour le bidouillage et le perfectionnement de bras, leur ajoutant des accessoires modernes et sympas pour les rendre plus fonctionnels.

Même si la conception de prothèses ne vous intéresse pas, je pense que ce projet montre clairement comment il est possible de développer une communauté en étant transparent sur ses besoins. Il montre comment donner de l’ampleur à une communauté, comment explorer de nouvelles voies pour tirer profit de la base de connaissances existante, et comment tisser davantage de liens avec les groupes qui pourront apprécier le travail que vous vous efforcez de mener à bien.

Ressources :




Petites précisions sur les licences Creative Commons par Nina Paley

Nina Paley - CC-By-SaLes licences Creative Commons sont flexibles et puissantes. Extension naturelle de la GPL [1] à autre chose que du logiciel 10 ans plus tard, ce jeu de licences se présente comme le couteau suisse du droit d’auteur, déclinable en 6 versions de bases, plus quelques fantaisies récentes. Il en résulte que quelque soit votre envie, une déclinaison de licence Creative Commons devrait y répondre, seulement le résultat ne sera pas forcément « libre », une CC-By-NC-ND ne permettant par exemple pas de remixer une œuvre. Une autre conséquence est que la mention « Creative Commons » sans autre indication n’a pas de sens.

Malheureusement, cette flexibilité et cette richesse de possibilités semblent bien souvent perdre les créateurs de tout poils désireux de remixer des œuvres libres sans prendre le temps d’en comprendre le fonctionnement. C’est en tout cas ce que constate sur Nina Paley sur son blog, en proposant sa solution au problème.

Nina Paley - CC-By-SaEn quelques mots, Nina Paley c’est cette jeune cinéaste américaine, qui, suite à une mésentente avec les ayants droits de la bande son d’une œuvre qu’elle remixait avec brio dans son long métrage « Sita chante le blues » décida, après avoir été primée le Festival international du film d’animation d’Annecy, de libérer son film en Creative Commons By Sa.

Enthousiasmée par la Culture Libre qu’elle découvrait à cette occasion, elle n’a cessé depuis d’alimenter des blogs dédiés à ce mouvement, gagnant sa vie par des conférences et des produits dérivés.

Toutefois, il semblerait bien que la solution proposée par Nina Paley ne soit qu’un premier tâtonnement vers… la Licence Art Libre du collectif Copyleft Attitude. Cette licence sans ambiguïté, approuvée par l’OSI et recommandée par la FSF. D’ailleurs n’hésitez pas à en présenter la version anglaise à Nina, elle vous en remerciera.

La confusion des licences Creative Commons

Le fléau de mon existence

Creative Commons’ Branding Confusion

Nina Paley – 10 octobre 2010 – Blog.NinaPaley.com
Traduction Framalang : KooToX, Julien Reitzel, Siltaar

Il y a environ un an et demi, j’ai publié mon film « Sita chante le blues » sous la licence Creative Commons « By Sa » (Paternité – Partage à l’identique). Cette licence permet une vraie distribution libre, incluant l’usage commercial, tant que la licence libre reste en place. Mais d’après mon expérience, la plupart des gens voient les mots “Creative Commons” et pensent que la licence exclue les utilisations commerciales « Non-Commercial » – car la majorité des licences Creative Commons rencontrées interdisent en pratique l’usage commercial de l’œuvre protégée.

C’est un vrai problème. Des artistes ont redistribué des remixes de « Sita » sous la licence Creative Commons « NC ». De nombreux blogueurs et journalistes préjugent des restrictions d’usage commercial, même si la licence est bien nommée :

« Le film a été rendu public sous les termes de la licence Creative Commons By Sa, permettant à d’autres personnes de partager l’œuvre pour des utilisations non commerciales librement, tant que l’auteur de l’œuvre est bien crédité », d’après Frontline, un magazine indien national.

Au début, j’ai essayé d’expliquer ce que « Partage à l’identique » signifiait aux personnes qui remixaient « Sita » en CC-NC, en leur demandant gentiment de revenir à la licence originale, comme voulu par la licence Creative Commons « Partage à l’identique » sous laquelle je l’avais distribué. Je me suis sentie bête, je ne veux pas jouer les flics du droit d’auteur. Au bout d’un moment, les mauvaises identifications de la licence du projet étaient si nombreuses que j’ai arrêté d’essayer de les corriger. « Creative Commons » signifie « pas d’utilisation commerciale » pour la plupart des gens. Se battre contre est une tâche sisyphéenne.

Donc me voilà bloquée avec un problème représentation. Tant que j’utiliserai une licence Creative Commons quelle qu’elle soit, la plupart des gens penseront que j’interdis l’utilisation commerciale des remix de mon œuvre. Presque personne ne semble utiliser, et encore moins essayer de comprendre, la licence CC-SA. Pire, ceux qui remarquent l’option « partage à l’identique » la combinent aux restrictions « pas d’utilisation commerciale » dans leurs rééditions, ce qui ajoute à la confusion (CC-NC-SA est la pire des licences imaginables).

Le partage à l’identique est une solution imparfaite aux restrictions du droit d’auteur, parce qu’il impose lui-même une restriction, qui est l’interdiction d’imposer d’autres restrictions par la suite. C’est une tentative d’utiliser le droit d’auteur contre lui-même. Tant que nous vivrons dans un monde dans lequel tout est protégé par défaut, j’utiliserai le partage à l’identique ou d’autres équivalents Copyleft, pour essayer de maintenir un « espace libre de droit d’auteur » autour des mes œuvres. Dans un monde meilleur, il n’y aurait pas de droit d’auteur automatique et par conséquent aucune nécessité pour moi d’utiliser une quelconque licence. Si cette utopie se réalisait, je supprimerais toutes les licences accolées à mes propres œuvres. En attendant, j’essaye de limiter les droits des gens à limiter les droits des autres.

Il serait bien que l’organisation Creative Commons fasse quelque chose pour remédier à cette confusion d’image. Pour cela, nous avons proposé de renommer les licences « partage à l’identique » en CC-PRO [2], mais étant donné que la base la plus large des Creative Commons est constituée d’utilisateurs de licences sans utilisation commerciale, il semble peu probable (mais pas impossible !) qu’ils distinguent leur véritable licence Copyleft avec une étiquette « pro ».

Nina Paley - CC-By-Sa

Si seulement Creative Commons offrait cela !

Il serait aussi bien que tout le monde, y compris les représentants de l’organisation Creative Commons, fassent référence aux licences par leur nom, plutôt qu’un simple « Creative Commons ». « Merci d’utiliser une licence Creative Commons », m’ont-ils dit. De rien ; Je vous remercierais d’en parler comme d’une licence « partage à l’identique ». Quasiment tous les journalistes font allusion aux 7 licences en parlant de « licences Creative Commons ». Ainsi, dans l’imaginaire populaire, ma licence « partage à l’identique » n’est pas différente d’une licence CC-NC-ND « pas d’utilisation commerciale, pas de modification ».

Cette crise d’image a atteint un pic récemment quand la société Radio-Canada a interdit toutes les musiques sous licences Creative Commons dans leurs émissions :

« Le problème avec notre utilisation de musique Creative Commons est qu’une grande quantité de nos contenus est facilement disponible sur une multitude de plateformes, certaines d’entre elles étant réputées être « commerciales » par nature (par exemple, streaming avec publicités imposée en préalable, ou les téléchargements payants sur iTunes) et qu’actuellement une grande majorité de la musique disponible sous une licence Creative Commons interdit toute utilisation commerciale.

Afin d’assurer que nous continuons d’être en conformité avec les lois Canadiennes en vigueur concernant le droit d’auteur, et étant donné le manque d’un large éventail de musique possédant une licence Creative Commons permettant l’utilisation commerciale, nous avons pris la décision d’utiliser la musique de notre bibliothèque de production dans nos podcasts car à cette musique sont liés les droit d’utilisation appropriés. » [lien]

L’organisation Creative Commons veut obtenir de la SRC qu’elle sépare ses différentes licences. Elle pourrait apporter de l’aide en commençant par appeler ses différentes licences par leur nom. Si l’organisation Creative Commons elle-même les appelle toutes « licences Creative Commons », comment peut-elle attendre des autres qu’ils distinguent ces licences les unes des autres ?

En attendant, je me demande comment communiquer clairement que mon œuvre est COPYLEFT. En plus de la licence CC-SA, s’il y a de la place j’écris « GAUCHE D’AUTEUR, TOUS TORTS RENVERSÉS ». Malheureusement, le terme « Copyleft » est lui aussi de plus en plus vidé de son sens. Par exemple, le meilleur film de Brett Gaylor « RIP : A Remix Manifesto » dit plein de choses justes, mais il comprend et utilise incorrectement le terme « Copyleft ». Le « Copyleft » c’est :

«  possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (œuvre d’art, texte, programme informatique, etc.) de copier, d’utiliser, d’étudier, de modifier et/ou de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

L’auteur n’autorise donc pas que son travail puisse évoluer avec une restriction de ce droit à la copie, ce qui fait que le contributeur apportant une modification (une correction, l’ajout d’une fonctionnalité, une réutilisation d’une oeuvre d’art, etc.) est contraint de ne redistribuer ses propres contributions qu’avec les mêmes conditions d’utilisation. Autrement dit, les créations réalisées à partir d’éléments sous copyleft héritent de cette caractéristique. » – Wikipédia

Mais dans RIP ça signifie :

Nina Paley - CC-By-Sa

Vous voyez ce symbole dollar barré ? Ça signifie qu’il y a des restrictions « pas d’utilisation commerciale », qui sont incompatibles avec le Copyleft.

Nina Paley - CC-By-Sa

NC comme « Non Copyleft »

Quelqu’un qui rencontrera le mot « Copyleft » dans ce film ne saura pas ce que ça signifie finalement en termes de licence.

J’ai besoin d’une licence que les gens comprennent. Je suis tenté par la « WTFPL » (abréviation du nom anglais « Do What The Fuck you want to Public License », traduite en « Licence Publique Rien À Branler ») mais je devrais la forker pour y ajouter une clause « Copyleft ». La « Licence Publique Rien À Branler Mais N’Empêchez Pas Les Autres De Faire Ce Qu’Ils En Veulent ? » RBMNPAFV ?

Y a-t-il ailleurs d’autres licences Copyleft utilisables et qui ne sont pas associées à des restrictions non-commerciales ? Je suis ouverte aux suggestions.

Proposition de CC-PRO

Le travail professionnel mérite d’être reconnu.

CC-PRO est une licence Creative Commons conçue spécifiquement pour les professionnels : auteurs, artistes, musiciens. CC-PRO utilise la licence Creative Commons la plus puissante, pour assurer que les travaux de qualité soient transmis et reconnus comme partageables. Elle offre la meilleure protection contre le plagiat et la censure. Elle attire l’attention et invite à la collaboration et la reconnaissance de votre audience la plus importante : les autres professionnels.

Meilleure protection contre :
Le plagiat
La censure
Une exploitation abusive

Promeut :
La paternité de l’œuvre
Vos revenus
La pérennité de l’œuvre
Sa distribution
La collaboration avec d’autres professionnels

Le travail professionnel mérite d’être reconnu. Utilisez la CC-PRO.

Nina Paley - CC-By-SA

Notes

[1] La licence logicielle écrite par Richard Stallman et Eben Moglen qui formalisa la notion de logiciel « libre » en 1989.

[2] Traduite en dernière partie de ce billet.




FramaDVD Ecole : des ressources libres pour l’école primaire

FramaDVD EcoleDans la série « projets Framasoft », je voudrais le FramaDVD. Et plus exactement le « FramaDVD École ».

Rappel : le FramaDVD est une compilation des meilleurs logiciels libres pour Windows, sélectionnés par Framasoft, auxquels nous avions ajouté le liveCD Ubuntu, ainsi que de très nombreuses ressources libres (textes, vidéos, musiques, photos, etc) afin de montrer que la culture libre allait aujourd’hui bien plus loin que le logiciel libre. Co-réalisé avec une équipe d’étudiants aussi dynamiques que sympathiques, ce DVD 100% libre a été largement diffusé depuis sa sortie (en septembre 2009). Une mise à jour est d’ailleurs prévue pour les prochaines semaines.

Mais l’un des avantages du 100% libre, c’est entre autre la possibilité de décliner un projet libre existant pour l’adapter à différents besoins.

Et c’est ce qui s’est passé avec le FramaDVD École. Cyrille Largillier, directeur et professeur des écoles, membre déjà très actif du projet Framakey, s’est proposé de créer un DVD destiné à favoriser l’usage des TUIC à l’école primaire. Et, pour joindre l’utile à l’agréable, favoriser l’usage des logiciels et de la culture libre dans ces mêmes écoles.

—> La vidéo au format webm

En plus d’un projet libre, il s’agit bien là d’un projet collaboratif. Il a en effet été conçu avec l’aide d’autres communautés. Notamment :

  • ASRI Education : pour l’intégration de sa distribution GNU/Linux particulièrement légère, adaptée aux enfants et aux adultes ;
  • EducOO : pour l’intégration d’OOo4kids, une suite bureautique dérivée d’OpenOffice, elle aussi adaptée aux enfants, dont nous vous avions déjà parlé ici ;
  • Okawix (ou plus exactement la société Linterweb, qui a développé le logiciel libre Okawix) : grâce à Okawix, le FramaDVD École intègre l’excellente encyclopédie pour enfants Vikidia, en version hors ligne, pour les écoles ou les foyers où Internet n’est pas ou peu disponible.

Après plusieurs mois de travaux, nous sommes donc fiers de vous annoncer la naissance du FramaDVD École !

Conçu spécifiquement pour les élèves et les enseignants des écoles, le FramaDVD École, doté de nombreuses fonctionnalités, comprend notamment :

• Plus de 130 logiciels libres à installer, pour Windows, répartis en 5 catégories principales :
1. Général : des logiciels pour tous (bureautique, graphisme, Internet…)
2. Élève : pour travailler dans toutes les disciplines de l’école primaire ;
3. Enseignant : pour aider les professeurs à préparer leur classe ;
4. Handicap : pour faciliter l’intégration des élèves en situation de handicap ;
5. Jeux : pour se divertir intelligemment ;

• Des copies d’écran ou des vidéos et des notices qui présentent les fonctionnalités de chaque logiciel ;

• Des tutoriels qui expliquent comment utiliser ces logiciels en classe ;

• Des ressources pédagogiques libres;

• Des textes, vidéos, images et sons utilisables et diffusables librement;

• Un installateur de logiciels qui permet en quelques clics d’ajouter très rapidement de nombreuses applications sur son ordinateur;

L’encyclopédie pour enfants Vikidia disponible hors-ligne, sur le DVD, grâce au logiciel Okawix;

Une distribution GNU/Linux particulièrement adaptée aux écoles, ASRI Éducation.

Le DVD est bien évidemment en libre téléchargement.

Cette compilation représente une contribution pour le développement des TUIC (Techniques Usuelles de l’Information et de la Communication) et en particulier des logiciels libres dans les classes.

La liste des applications et contenus est visible sur la page du projet.

Par ailleurs, il sera possible d’ici quelques semaines d’acheter ce DVD à bas prix sur notre boutique en ligne : EnVenteLibre.org. Si vous êtes intéressés, merci de remplir le formulaire dédié afin que nous puissions faire presser le DVD en quantité suffisante.

Enfin, suivant le succès des ventes du DVD, une partie des bénéfices sera redistribué aux communautés participantes, et nous envisageons un programme inspiré du “Get 1 Give 1” d’OLPC qui permettrait de faire parvenir gratuitement des exemplaires dans les pays à faible connectivité.

Bons téléchargements [1] !

Téléchargement et informations complémentaires sur la page officielle du FramaDVD Ecole.

Notes

[1] Le miroir principal est proposé par nos amis suisses de l’EPFL, qu’ils en soient ici grandement remerciés. Si vous souhaitez participer au réseau de miroirs, vous pouvez nous aider.




Logiciel libre et développement durable, même combat ?

416style - CC-byAu détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin [1].

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Frédéric Bordage et François Letellier – GreenIT.fr

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du « Green IT » cherche à réduire l’empreinte écologique des Technologies de l’Information et de la Communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du « Green IT » consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre à la rescousse

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont architecturés autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « Libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « Green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée imposée par des éditeurs propriétaires et monopolistiques. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le développement durable ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 [2]. Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.

Votre avis ?

Frédéric Bordage et François Letellier contribuent au blog collectif GreenIT.fr qui fédère la communauté francophone des acteurs du Green IT.

Notes

[1] Crédit photo : 416style – Creative Commons Paternité

[2] Voir « Facteur 4 » dans le glossaire pointé.