Tout ça pour ça ? Création Libre dans un Internet Libre de Roberto Di Cosmo

Shiv Shankar Menon Palat - CC by« Le moment est venu de siffler la fin de la recréation: ne vous laissez plus culpabiliser par le discours ambiant qui veut vous faire porter des habits de pirates, alors que vous êtes le public sans qui les artistes ne seraient rien; lisez ce qui suit, téléchargez le Manifesto, emparez-vous de ses idées, partagez-les avec vos amis, vos députés, vos artistes préférés; parlez-en avec vos associations, vos employés, vos employeurs; demandez que la Licence Globale soit rémise à l’ordre du jour, et que l’industrie culturelle arrête une fois pour toutes de s’attaquer à nos libertés de citoyens de l’ère numérique. »

Cette pugnace introduction est signée Roberto Di Cosmo qui vient de mettre en ligne un document d’une cinquantaine de pages au titre prometteur : Manifesto pour une Création Artistique Libre dans un Internet Libre.

Nous en avons recopié ci-dessous le préambule et il va sans dire que nous vous invitons à le lire et à le diffuser, car la question mérite toujours et plus que jamais d’être débattue[1].

Pour rappel Roberto Di Cosmo est chercheur informaticien, membre de l’AFUL et auteur de plusieurs ourages dont Le hold-up planétaire ré-édité chez InLibroVeritas.

Mise à jour : Attention, nous sommes allés un peu vite en besogne, l’auteur nous signale qu’il ne s’agit que d’un version préliminaire publiée pour commentaires, ne pas copier ailleurs pour l’instant.

Tout ça pour ça

URL d’origine du document

Roberto Di Cosmo – 25 janvier 2011
Extrait de Manifesto pour une Création Artistique Libre dans un Internet Libre
Licence Creative Commons By-Nc-Nd

Depuis les vacances de Noël, on ne compte plus les articles dans la presse, écrite et en ligne, qui parlent du téléchargement non autorisé de musique et de la crise du marché du disque. En les lisant, on a comme une sensation de déjà vu : cela fait quand même des années qu’on assiste à la même mise en scène médiatique autour du Marché International du Disque et de l’Edition Musicale qui se tient à Cannes tous les mois de janvier. Cela se termine toujours, sans surprise, sur la même conclusion : il faut sévir contre les méchants internautes adeptes du téléchargement illégal pour revitaliser la création française.

Il faut dire que, pour sévir, ils ont un peu tout essayé.

D’abord les procès individuels au cas par cas, approche vite abandonnée parce-que chère, peu généralisable, et soumise à l’appréciation du juge, pas toujours prêt à faire l’impasse sur notre droit à la copie privée.

Ensuite les DRM (Digital Rights Management), instruments de protections numériques contre la copie, qui ont fait l’objet d’une farouche bataille juridique en 2005, gagnée avec la loi DADVSI par l’industrie du disque, qui les a pourtant abandonnés tout de suite après, face aux déconvenues qu’ils causaient aux consommateurs qui n’arrivaient plus à transférer leur musique entre deux baladeurs différents.

Enfin, depuis peu, voici la riposte graduée et l’HADOPI, la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet, une entité créée par la loi dite Création et Internet, et dont l’effet le plus visible pour l’instant est le reversement des centaines de milliers de courriers électroniques dans les boites à lettres d’internautes accusés, à tort ou à raison, d’avoir permis que des téléchargements illégaux s’opèrent à travers leur connexion Internet.

L’idée géniale de ce dernier jouet d’une industrie d’intermédiaires qui a toujours du mal à se mettre à Internet, c’est de couper massivement les abonnements Internet qui ont été identifiés comme ayant servi à télécharger de la musique sans autorisation. Pour être efficace, ce dispositif doit couper beaucoup, mais alors, vraiment beaucoup d’abonnements, donc, pas question de passer devant des juges : on émet des avertissements en masse, puis des lettres recommandées, toujours en masse, puis on passe nos connexions aux ciseaux.

Bien évidemment, toujours au nom de l’efficacité, on ne se soucie pas trop de vérifier le bien fondé des accusations de téléchargement illégal, qui sont produites automatiquements et peuvent être erronées, ni d’identifier qui a été à l’origine du téléchargement, qui pourraît être aussi le fait d’un des multiples virus qui infestent la plupart des ordinateurs de nos concitoyens, ou une tierce personne qui s’est branché sur le reseau Wifi de l’abonné.

Cette violation des droits élémentaires des citoyens à l’ère d’Internet, perpetrée dans un pays qui pour beaucoup était le symbole des « droits de l’homme », nous a valu le triste honneur d’être mis dans les même panier que les régimes totalitaires, dans un bel article de Tim Berners Lee, paru sur Scientific American en Novembre 2010[2].

L’argument juridique utilisé pour justifier cet horreur est fort amusant : formellement on ne punit pas l’abonné pour avoir téléchargé, mais pour « défaut de sécurisation de son accès Internet » ; on en est presque à la double peine : l’abonné moyen qui lutte déjà avec les services après vente des fournisseurs d’accès, qui passe pas mal de temps à faire tourner des antivirus chers dans l’espoir de se débarasser de tous les intrus qui se logent dans son ordinateur, et qui n’a aucune idée de ce que ça peut vouloir dire « sécuriser son réseau », va maintenant être puni s’il est victime d’un piratage informatique.

Cette situation hubuesque a déjà créé un joli marché pour des pseudosolutions pour se protéger de l’Hadopi : les internautes vont depenser plusieurs euros par mois soit pour des logiciels qui réduisent les fonctionnalités de leurs ordinateurs dans l’espoir d’empêcher le téléchargement, comme le « logiciel de sécurisation » proposé par Orange à deux euros par mois en Juin 2010, qui ne garantit en rien contre Hadopi, soit en s’abonnant à de sites centralisés de partage de fichiers qui fleurissent sur la toile, et contre lesquels Hadopi est inopérant. Tout cet argent qui sortira des poches des internautes n’apportera le moindre centime ni aux artistes ni à l’industrie culturelle, qui est en train de rééditer ici, mais en pire, l’idiotie des DRM: compliquer la vie du public, en lui faisant perdre de l’argent et du temps, alors qu’une fraction de cet argent perdu, recoltée sous forme de licence globale, suffirait à redonner le sourire à bien d’artistes, sans besoin de s’attaquer à cet accès Internet qui est devenu un besoin fondamental de tous les citoyens.

On parle de dizaines de milliers d’avertissements par jour, qui pour espérer être efficaces, vont devoir produire au moins des milliers de coupures d’Internet par jour, en semant la pagaille dans un grand nombre de foyers qui ont déjà pas mal d’autres problèmes à régler aujourd’hui ; en désorganisant nos fournisseurs d’accès Internet, qui vont perdre du temps d’abord à couper les accès, puis à répondre aux appels des clients furieux au service après-vente ; et en mettant un frein à l’économie Internet qui grandit à une vitesse spectaculaire et dépasse aujourd’hui en France les 25 milliards d’euros.

Tout ça pour espérer redonner du souffle à un marché de gros de la musique qui pèse, selon les chiffres du SNEP présentées à Cannes il y a quelques jours, 554,4 millions d’euros, et qui a commercialisé en 2010 moins de 1000 albums.

Tout ça, on nous explique, pour défendre la création artistique et protéger les artistes, compositeurs et autres créateurs… Ces artistes, compositeurs et créateurs ne touchent pourtant qu’une toute petite fraction de ces 554,4millions d’euros, et gagneraient beaucoup plus si, plutôt que les obliger à recueillir les miettes d’un système dépassé, on nous permettait de les rémunérer directement, ce qu’Internet rend possible, comme nous allons expliquer dans la suite.

Tout ça pour ça ?

Lire la suite en téléchargeant le Manifesto en ligne.

Notes

[1] Crédit photo : Shiv Shankar Menon Palat (Creative Commons By)

[2] Il écrit : « Les gouvernements totalitaires ne sont pas les seuls à violer les droits d’accès au réseau de leurs citoyens. En France, une loi de 2009, nommée Hadopi, a permis à une nouvelle l’agence du même nom de déconnecter un foyer d’Internet pendant un an si quelqu’un dans le foyer a été désigné par une société (privée représentant des ayant droit) comme ayant copié illégalement de la musique ou de la vidéo. »




Quand Wikpédia rime avec le meilleur des USA

Stig Nygaard - CC byNous avons déjà publié des articles sur Wikipédia à l’occasion de son dixième anniversaire, mais aucun qui n’avait cette « saveur si américaine », et c’est justement ce qui nous a intéressé ici.

L’auteur se livre ici à une description pertinente mais classique de l’encyclopédie libre, à ceci près qu’il y fait souvent mention des États-Unis[1].

Si le récent massacre de Tucson symbolise le pire des USA, alors Wikipédia est son meilleur. Et merci au passage à la liberté d’expression toute particulière qui règne dans ce pays.

En lecture rapide, on aurait vite fait de croire que l’encyclopédie est américaine en fait !

Or le contenu du Wikipédia n’appartient à personne puisqu’il appartient à tout le monde grâce aux licences libres attachées à ses ressources. Mais que le créateur, les serveurs (et donc la juridiction qui en découle), le siège et la majorité des membres de cette Fondation, aient tous la même origine n’est ni neutre ni anodin.

On a vu le venin de l’Amérique – Saluons désormais Wikipédia, pionnier made in US du savoir-vivre mondial.

We’ve seen America’s vitriol. Now let’s salute Wikipedia, a US pioneer of global civility

Timothy Garton Ash – 12 janvier 2011 – Guardian.co.uk
(Traduction Framalang : DaphneK)

Malgré tous ses défauts Wikipédia, qui vient de fêter ses dix ans, est le meilleur exemple d’idéalisme à but non-lucratif qu’on puisse trouver sur Internet.

Wikipédia a eu dix ans samedi dernier. C’est le cinquième site Web le plus visité au monde. Environ 400 million de gens l’utilisent chaque mois. Et je pense que les lecteurs de cet article en font certainement partie. Pour vérifier une information, il suffit désormais de la « googliser » puis, la plupart du temps, on choisit le lien vers Wikipedia comme meilleure entrée.

Ce que cette encyclopédie libre et gratuite – qui contient désormais plus de 17 millions d’articles dans plus de 270 langues – a d’extraordinaire, c’est qu’elle est presque entièrement écrite, publiée et auto-régulée par des volontaires bénévoles. Tous les autres sites les plus visités sont des sociétés commerciales générant plusieurs milliards de dollars. Facebook, avec juste 100 millions de visiteurs en plus, est aujourd’hui évalué à 50 milliards de dollars.

Google à Silicon Valley est un énorme complexe fait de bureaux et de bâtiments modernes, comme une capitale surpuissante. On peut certes trouver des pièces de Lego en libre accès dans le foyer, mais il faut signer un pacte de confidentialité avant même de passer la porte du premier bureau. Quant au langage des cadres de Google, il oscille curieusement entre celui d’un secrétaire de l’ONU et celui d’un vendeur de voitures. On peut ainsi facilement passer du respect des Droits de l’Homme au « lancement d’un nouveau produit ».

Wikipédia, par contraste, est géré par une association à but non-lucratif. La Fondation Wikimedia occupe un étage d’un bâtiment de bureau anonyme situé au centre de San Francisco et il faut frapper fort à la porte pour pouvoir entrer. (On parle d’acheter une sonnette pour fêter les dix ans.) A l’intérieur, la fondation ressemble à ce qu’elle est : une modeste ONG internationale.

Si Jimmy Wales, l’architecte principal de Wikipedia, avait choisi de commercialiser l’entreprise, il serait sans doute milliardaire à l’heure actuelle, comme le fondateur de Facebook Mark Zuckerberg. Selon Wales lui-même, placer le site sous licence libre était à la fois la décision la plus idiote et la plus intelligente qu’il ait jamais prise. Plus que n’importe quel autre site international, Wikipedia fleure encore bon l’idéalisme utopique de ses débuts. Les Wikipédiens, comme ils aiment se définir eux-mêmes sont des hommes et des femmes chargés d’une mission. Cette mission qu’ils endossent fièrement, pourrait se résumer par cette phrase presque Lennonienne (de John, pas Vladimir) prononcée par celui que tout le monde ici appelle Jimmy : « Imaginez un monde dans lequel chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines ».

Insinuer que ce but utopique pouvait être atteint par un réseau d’internautes volontaires – travaillant pour rien, publiant tout et n’importe quoi, sachant que leurs mots sont immédiatement visibles et lisibles par le monde entier – était, bien entendu, une idée totalement folle. Pourtant, cette armée de fous a parcouru un chemin remarquablement long en dix ans à peine.

Wikipédia a toujours de très gros défauts. Ses articles varient généralement d’un sujet ou d’une langue à l’autre en termes de qualité. En outre, beaucoup d’articles sur des personnalités sont inégaux et mal équilibrés. Ce déséquilibre dépend en grande partie du nombre de Wikipédiens qui maîtrisent réellement une langue ou un sujet particulier. Ils peuvent être incroyablement précis sur d’obscurs détails de la culture populaire et étonnement faibles sur des sujets jugés plus importants. Sur les versions les plus anciennes du site, les communautés de rédacteurs volontaires, épaulées par la minuscule équipe de la Fondation, ont fait beaucoup d’efforts afin d’améliorer les critères de fiabilité et de vérifiabilité, insistant particulièrement sur les notes et les liens renvoyant aux sources.

Pour ma part, je pense qu’il faut toujours vérifier plusieurs fois avant de citer une information puisée sur le site. Un article sur Wikipédia paru dans le New Yorker notait à ce propos la fascinante distinction entre une information utile et une information fiable. Dans les années à venir, l’un des plus grands défis de l’encyclopédie sera de réduire l’écart qui pouvant exister entre ces deux notions.

Un autre grand défi sera d’étendre le site au-delà des frontières de l’Occident, où il est né et se sent le plus à l’aise. Un expert affirme qu’environ 80% des textes proviennent du monde de l’OCDE. La fondation vise 680 millions d’utilisateurs en 2015 et espère que cette croissance sera principalement issue de régions comme l’Inde, le Brésil et le Moyen-Orient.

Pour percer le mystère Wikipédia, il ne s’agit pas de pointer ses défauts évidents, mais de comprendre pourquoi le site fonctionne si bien. Les Wikipédiens offrent plusieurs explications : Wikipédia est né assez tôt, alors qu’il n’existait pas encore autant de sites dédiés aux internautes novices, une encyclopédie traite (principalement) de faits vérifiables plutôt que de simples opinions (ce qui est monnaie courante mais aussi un des fléaux de la blogosphère), mais c’est surtout avec sa communauté de rédacteurs-contributeurs que Wikipedia a trouvé la poule aux oeufs d’or.

Par rapport à l’échelle du phénomène, la masse des rédacteurs réguliers est incroyablement faible. Environ 100 000 personnes rédigent plus de cinq textes par mois mais les versions les plus anciennes comme l’anglais, l’allemand, le français ou le polonais sont alimentés par un petit groupe de peut-être 15 000 personnes, chacune effectuant plus de 100 contributions par mois. Il s’agit en grande majorité d’hommes jeunes, célibataires, qui ont fait des études. Sue Gardner, Directrice Executive de la Fondation Wikimedia, affirme qu’elle peut repérer un Wikipédien-type à cent mètres à la ronde. Ce sont les accros du cyberespace.

Comme la plupart des sites internationaux très connus, Wikipédia tire avantage de sa position privilégiée au sein de ce que Mike Godwin, Conseiller Général chez Wikipédia jusqu’au mois d’octobre dernier, décrit comme « un havre de liberté d’expression appelé les États-Unis » Quel que soit le pays d’origine du rédacteur, les encyclopédies de toutes les langues différentes sont physiquement hébergées par les serveurs de la Fondation situé aux États-Unis. Ils jouissent des protections légales de la grande tradition américaine qu’est la liberté d’expression.

Wikipédia a cependant été remarquablement épargnée par la spirale infernale particulièrement bien résumée par la Loi de Godwin (que l’on doit au même Mike Godwin). Cette règle affirme en effet que « lorsqu’une discussion en ligne prend de l’ampleur, la probabilité d’une comparaison faisant référence au Nazis ou à Hitler est environ égale à 1 ». Ceci est en parti dû au fait qu’une encyclopédie traite de faits, mais aussi parce que des Wikipédiens motivés passent énormément de temps à défendre leurs critères de « savoir-vivre » contre les nombreuses tentatives de vandalisme.

Ce savoir-vivre – traduction française du « civilty » anglais – est l’un des cinq piliers de Wikipédia. Depuis le début, Wales soutient qu’il est possible de réunir honnêteté et politesse. Toute une éthique en ligne, une nétiquette – pardons, une wikiquette – s’est développée et mise en place autour de cette notion, donnant naissance à des abréviations telles que AGF (Assume Good Faith) qu’on pourrait traduire par « Supposez ma Bonne Foi ». Les personnes manquant de savoir-vivre sont courtoisement interpelées puis mises en garde, avant d’être exclues si elles persistent. Mais je ne suis pas en position de juger si tout ceci se vérifie dans les versions sorabe, gagaouze et samoanes du site. Wikipédia a peut-être sa part de propos déplacés, mais si une communauté a tendance à dégénérer, la Fondation a au final le pouvoir d’ôter les tirades incriminées du serveur. (Wikipédia est une marque protégée par la loi, alors que Wiki-autre-chose ne l’est pas ; D’ailleurs Wikileaks n’a rien à voir avec Wikipedia et n’est même pas un « wiki » au sens collaboratif du terme.)

Nous ne sommes toujours pas en mesure de savoir si la fusillade de Tucson, en Arizona, est le produit direct du détestable climat qui règne actuellement sur le discours politique américain, tel qu’on a pu l’entendre sur des émissions de radio et de télévisions comme Fox news. Un fou est peut-être tout simplement fou. Mais le venin servi chaque jour par la politique américaine est un fait indéniable. Pour lutter contre ce climat déprimant, il est bon de pouvoir célébrer une invention américaine qui, malgré ses défauts, tente de propager dans le monde entier une combinaison d’idéalisme bénévole, de connaissance et de savoir-vivre acharné.

Notes

[1] Crédit photo : Stig Nygaard (Creative Commons By-Sa)




Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




Microsoft et l’Open Source ensemble aux Antipodes

Robbie Grubbs - CC by-saS’il n’y a que les imbéciles qui ne changent pas d’avis, alors j’ai l’honneur de vous faire savoir que Microsoft n’en fait plus partie.

Un communiqué de presse de Microsoft Nouvelle-Zélande, datant de novembre dernier, est passé totalement inaperçu alors qu’il est pourtant tout simplement énorme pour des p’tits gars comme moi qui versent dans le Libre depuis une bonne dizaine d’années et dans l’éducation depuis encore plus longtemps.

Qu’il soit devenu « naturel » pour Microsoft de proposer un plugin à Word afin d’aider le monde de l’éducation à mieux travailler sur les wikis sous Mediawiki (à commencer par Wikipédia), cela passe encore. Qu’on y mentionne et soutienne alors explicitement les Ressources Éducatives Libres sous licence Creative Commons By, cela commence à surprendre. Mais qu’il soit devenu tout aussi « naturel » pour Microsoft de placer ce plugin sous licence libre pour mieux « le partager avec la communauté », c’est tout de même une sacrée (r)évolution.

Quand on pense que, jadis, le logiciel libre était qualifié de « cancer communiste » par les mêmes qui semblent aujourd’hui découvrir ses vertus, on mesure le chemin parcouru !

Certes, ça n’est qu’une extension et non une application toute entière, Word libre ce n’est pas pour tout de suite ! Il convient également de voir concrètement la qualité du convertisseur (ce que je n’ai pu faire faute d’avoir MS Office sur mon ordi), mais la déclaration (d’intention ?) ci-dessous vaut de toutes les façons son pesant de cacahuètes[1].

Certes aussi, il est question du programme Partners in Learning (PIL) dans le communiqué. Et nous avons souvent eu l’occasion de dire dans ces colonnes tout le bien que nous pensions de ce projet Microsoft fort ambigu (lire par exemple L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft, Les industriels lorgnent le futur grand plan numérique de Luc Chatel – Mediapart ou encore En réponse au Café Pédagogique).

Il n’en demeure pas moins que les temps changent (quand même un peu), et Microsoft aussi, semble-t-il, vis-à-vis du logiciel libre et de sa culture.

Et vous vis-à-vis de Microsoft ?

Microsoft travaille avec les enseignants et l’open source pour prendre en charge un wiki libre de partage du savoir

Microsoft works with educators and open source to support free knowledge sharing wiki

Microsoft Nouvelle-Zélande – 17 novembre 2010 – Communiqué de presse
(Traduction Framalang : Goofy et Martin)

Une nouvelle extension open source pour Microsoft Word permet d’utiliser le format de fichier MediaWiki pour que les utilisateurs puissent mettre en ligne directement leurs documents sur des wikis.

Microsoft, travaillant en collaboration avec la Fondation OER (Open Education Resource) de l’Institut polytechnique d’Otago (Nouvelle-Zélande) et du Ministère de l’éducation, a mis au point une nouvelle extension open source pour Microsoft Word qui permet d’enregistrer des documents dans un format compatible avec les wikis sous MediaWiki, celui-là même qu’utilise la populaire encyclopédie en ligne Wikipédia.

La nouvelle extension aidera les enseignants à collaborer à la construction de nouvelles ressources éducatives ouvertes. Le directeur de la Fondation Otago, Dr Wayne Mackintosh, déclare : « grâce à la prise en charge du style MediaWiki dans Microsoft Office, les professeurs pourront partager vite et facilement leur matériel pédagogique sur des plateformes en ligne telles que Wikipédia et WikiEducator. Cela signifie que les institutions éducatives adoptant la démarche de l’OER pour fournir des ressources et des manuels libres pourront abaisser considérablement la barrière du coût à engager pour fournir aux étudiants les outils et les informations dont ils ont besoin pour apprendre ».

MediaWiki a reçu un soutien sans failles du Ministère de l’éducation qui partage les objectifs de la Fondation EOR dans ce domaine.

« Nous sommes ravis de la nouveauté que constitue une extension open source dans la boîte à outils de Microsoft Office. Elle permettra aux enseignants et étudiants de Nouvelle-Zélande de s’investir plus facilement dans le partage des ressources éducatives et les débats pédagogiques, dans l’esprit du wiki » déclare Leanne Gibson, directrice des systèmes d’information.

L’institut polytechnique d’Otago héberge les bureaux de la Fondation, qui est une organisation indépendante à but non lucratif visant à assurer la prise en main, le développement et le soutien d’un réseau international d’enseignants et institutions éducatives, à travers l’Open Education. WikiEducator est la vitrine de la Fondation EOR, qui s’efforce de rendre libres d’accès les matériels pédagogiques pour les étudiants du monde entier, particulièrement dans les pays en voie de développement pour lesquels les systèmes d’éducation classiques s’avèrent souvent hors de prix.

Microsoft a financé le développement d’une nouvelle fonctionnalité du logiciel Word pour permettre à tous les enseignants du monde de produire et partager des ressources pédagogiques à un coût modeste en utilisant des outils basés sur le wiki.

Le directeur de la plateforme stratégique de Microsoft pour la Nouvelle-Zélande, Andrew Gordon, déclare que l’entreprise s’implique dans la collaboration avec la communauté open source pour développer du matériel éducatif qui bénéficiera autant aux étudiants qu’aux enseignants.

« Microsoft a un lien étroit avec le monde éducatif via nos initiatives Citizenship (citoyenneté) en cours, telles que le concours Imagine, la plus grande compétition du monde étudiant dans le domaine technologique, si bien que MediaWiki était une solution tout à fait naturelle pour nous, comme pouvait l’être la publication du code source sous une licence open source et le fait de permettre son partage avec la communauté. Compte tenu de l’utilisation intensive de Word dans tous les établissements d’éducation à travers le monde, nous chez Microsoft, sommes ravis et fiers de pouvoir apporter notre pierre à l’édifice en rendant accessibles à chacun, quelle que soit sa situation, des ressources pédagogiques de bonne qualité. »

Le convertisseur MediaWiki est si simple qu’il peut être installé rapidement et facilement par des utilisateurs non expérimentés. De plus, son code a été publié sous une licence open source, ce qui signifie que l’application peut être ré-utilisée librement comme base pour d’autres extensions communes avec MediaWiki. Il est également une référence pour quiconque aurait besoin de publier des informations à partir de Microsoft Office. Le convertisseur MediaWiki fonctionnera avec toutes les versions de la suite Office depuis 2007 jusqu’à la version récente de 2010.

Peter Harrison, le vice-président de la New Zealand Open Source Society ne tarit pas d’éloges sur cette initiative : « Internet offre à l’humanité une occasion unique de mettre à profit les technologies de la communication pour éduquer la population du monde entier. À travers les technologies collaboratives telles que le wiki tout le monde pourra travailler de concert pour créer des ressources communes de qualité, ouvertes à tous. En permettant aux utilisateurs d’exporter leurs contenus de Word vers MediaWiki, Microsoft encourage la mise à disposition d’une gamme bien plus large de ressources éducatives en ligne. »

L’Institut polytechnique d’Otago est l’un des pionniers de l’Open Education, et c’est le premier établissement d’enseignement supérieur à avoir signé la déclaration du Cap sur l’Open Education. C’est également la première institution d’enseignement supérieur au monde à approuver et mettre en œuvre une politique de la propriété intellectuelle qui utilise la licence Creative Commons Attribution par défaut (NdT : cf cet article du Framablog Privilégier la licence Creative Commons Paternité CC-BY dans l’éducation), et qui s’investit dans l’éducation au point de l’inclure dans son programme.

Ce projet est complémentaire de l’initiative PIL (Partners in Learning) que Microsoft soutient depuis dix ans à hauteur de 500 millions de dollars : il s’agit d’aider les enseignants et directeurs d’écoles à utiliser les nouvelles technologies pour apprendre et enseigner plus efficacement. Pour davantage d’informations, voir http://www.microsoft.com/education/pil.

Notes

[1] Crédit photo : Robbie Grubbs (Creative Commons By-Sa)




L’accueil, le Sud et la défense d’Internet : des défis majeurs à venir pour Wikipédia

Enokson - CC byL’extraordinaire encyclopédie libre Wikipédia a 10 ans et c’est naturellement l’occasion de faire des bilans.

Nous avons préféré ici nous projeter dans l’avenir en compagnie de Sue Gardner, à la tête de la Wikimedia Foundation depuis 2007 (dont Jimbo Wales en personne nous dit que le recrutement fut certainement « l’une des meilleures décisions que nous ayons jamais prise au cours de cette première décennie »).

L’accueil[1] et la diversification de nouveaux éditeurs, l’ouverture au monde et tout particulièrement vers « le Sud » et son utilisation croissante des terminaux mobiles, mais aussi l’inquiétude (ô combien partagée) de l’émergence de lois potentiellement liberticides pour Internet et de ce que pourrait faire ensemble les Wikipédiens pour le défendre, sont quelques uns des thèmes abordés ici.

Rendre Wikipédia plus accueillant : un véritable défi

The battle to make Wikipedia more welcoming

Olivia Solon – 10 janvier 2011 – Wired.co.uk
(Traduction Framalang : Olivier Rosseler, Martin et Goofy)

L’un des défis majeurs pour Wikipedia est d’étendre sa base de collaborateurs. Ce ne sont pas les volontaires qui manquent, le problème vient plutôt de l’accueil pas très chaleureux qui est réservé aux novices. Sue Gardner, directrice exécutive de la fondation Wikimédia, annonce des mesures pour y remédier, dans une interview donnée à Wired.co.uk.

Le profil du contributeur de Wikipédia moyen, pour sa version anglaise est le suivant : homme (88%), jeune (pas encore tout à fait trentenaire), féru de technique, disposant d’une bonne éducation et qui habite dans l’hémisphère nord. Pour cette raison, les centres d’intérêt de l’encyclopédie tournent plus autour de l’informatique, de l’astronomie ou de la culture populaire qu’autour de l’agriculture, de l’art au moyen-âge ou de la linguistique, par exemple.

Afin de corriger ce déséquilibre, et pour élargir sa base de contributeurs et la rendre plus représentative de la population mondiale, Wikipédia est sur le point de lancer une campagne d’accompagnement des novices pour leurs 100 premières éditions. Cela implique de se pencher sur l’ergonomie du site, mais il s’agit surtout de s’assurer que les contributeurs chevronnés se montrent plus accueillants pour les nouveaux éditeurs.

Sue Gardner, directrice générale (NdT : Executive Director) de la fondation Wikimedia, se confie à Wired.co.uk : « Les Wikipédiens ne se montrent pas toujours très compréhensifs avec les nouveaux arrivants qui ne maîtrisent pas encore tout à fait l’outil et les règles. On parle beaucoup de « septembre sans fin » (NdT : endless September) – un terme inventé par Dave Fisher pour décrire le débarquement annuel d’étudiants qui se créaient leur premier adresse mail aux débuts d’Internet – et lorsque je suis entrée chez Wikimédia, l’idée de recruter de nouveaux contributeurs rencontrait énormément de résistance. »

« Les contributeurs de Wikipédia veulent que l’encyclopédie soit de très bonne qualité, et ils ne voient donc pas forcément d’un bon œil l’arrivée de personnes qui n’en connaissent pas les valeurs et les processus de publication. Il n’y avait pas une bonne perception de ce que pouvaient apporter de nouveaux éditeurs. »

Les contributeurs mystérieux

Après deux ans de discussions internes, les choses sont en train de changer. Une évolution majeure a été réalisée quand des contributeurs expérimentés ont mené une expérience en se faisant passer pour des contributeurs anonymes pour voir comment leurs modifications étaient reçues. Ils ont pu constater qu’elles avaient été annulées ou supprimées même si leurs contributions étaient d’aussi bonne qualité que celles faites en leur nom. On ne prenait même, en général, pas la peine de leur expliquer pourquoi elles étaient effacées.


Gardner ajoute : « je pense que maintenant nous comprenons le problème, mais il nous reste à évaluer notre gestion des 100 premières contributions, qui sont si cruciales. ».

Ils projettent de modifier l’interface, pour la rendre plus accueillante, avec plus de messages encourageants. Contrairement à d’autres sites où le contenu est généré par les utilisateurs, Wikipédia a toujours évité de contacter ses utilisateurs par e-mail. Mais envoyer des messages comme « Untel a apporté des modifications à l’article que vous avez rédigé » ou « Vous avez édité cet article, peut-être voudriez-vous également éditer celui-ci » renforcerait peut-être l’adhésion au site des nouveaux utilisateurs.

Mais au-delà des modifications de l’interface, la communauté tente d’inciter ses contributeurs actifs à être plus accueillants. Le but est de les encourager à adopter le même comportement avec les anciens qu’avec les novices.

« On ne peut pas vous assurer de ne pas rencontrer de méchanceté sur Wikipédia, mais il nous faut encourager les discussions constructives, » nous dit Gardner.

L’un des plus gros défis de Wikimédia est d’encourager les contributions du « Sud » (au sens économique). Fruit d’une année de discussions collaboratives, la stratégie établie est de mettre l’accent sur les pays moins développés économiquement.

Actuellement, la version anglaise de Wikipédia compte le plus grand nombre d’articles (plus de 3 500 000), viennent ensuite la version allemande, puis la version française, avec plus d’un million d’articles chacune. On dénombre quasiment 300 versions de Wikipédia dans d’autres langues, qui affichent entre un et 750 000 articles. Il y a environ 67 000 articles en Hindi, 55 000 en Urdu et 21 000 en Swahili, par exemple.

2011 verra l’ouverture du premier bureau hors des États-Unis, en Inde. Ce sera la première initiative de « plusieurs tentatives d’incursion dans des parties du monde où les contributeurs et les utilisateurs potentiels sont nombreux, mais ces possibilités sont encore bridées » d’après Gardner. L’amérique latine et les pays arabophones sont les prochains sur la liste.

Wikipédia souhaite recruter de nouveaux éditeurs, mieux faire connaître ses besoins, faciliter techniquement l’édition et accélérer le site. L’idée est d’éviter que Wikipédia ne soit une encyclopédie rédigée par des gens uniquement dans les pays riches.

Pour corriger ce déséquilibre géographique, il faudra travailler sur l’énorme barrière que représente l’interface pour mobiles. Dans les pays en voie de développement, la majorité des personnes accède au Web grâce à leur mobile. Même si Wikipédia est optimisée pour être lue sur un téléphone portable, contribuer à l’encyclopédie à partir d’un mobile reste très difficile. Il y a bien une éditrice de la version indonésienne de Wikipédia qui y parvient grâce à un clavier externe connecté à son téléphone, mais « ça à l’air extrêmement laborieux », d’après Gardner.

Elle s’interroge : « La question préalable demeure : est-il possible de créer une interface d’édition ergonomique sur téléphone portable ? »

Une autre menace se fait de plus en plus sentir : l’instabilité des lois. Actuellement, aux États-Unis, Wikipédia est protégée des poursuites si un contributeur met en ligne quelque chose de diffamatoire par le Communications Decency Act. Sans ce régime de responsabilité favorable, il serait presque impossible pour Wikipédia de maintenir son modèle d’encyclopédie rédigée par les utilisateurs.

Gardner dit : « Nous devons sans cesse nous faire entendre pour définir ce qu’Internet doit être à nos yeux. Dans les premières années, le pouvoir législatif s’est contenté d’observer son développement, mais maintenant il veut de plus en plus avoir son mot à dire. »

Elle se dit inquiète des interventions de plus en plus fréquentes des gouvernements qui censurent le Web à l’échelle nationale, comme l’Australie qui a mis en place une liste noire des sites interdits à ses concitoyens ou encore comme le Royaume-Uni, en la personne de Ed Vaizey, qui demande aux fournisseurs d’accès de se montrer plus stricts sur le pornographie pour combattre l’exposition trop précoce des enfants au sexe (NdT : Elle aurait également pu citer la France avec sa loi LOPPSI 2 !).

« Au début, on pensait qu’Internet ne connaîtrait pas de frontières. Mais on se rend de plus en plus compte que d’un pays à l’autre, la manière de l’utiliser diffère fortement. J’aimerais vraiment que les Wikipédiens aient voix au chapitre sur ce point ». Elle cite l’expérience d’eBay Main Street Initiative, le volet « local » du site d’e-commerce qui informe les vendeurs des projets législatifs qui pourraient les concerner, comme modèle à imiter. Ils encouragent ainsi les vendeurs sur eBay à faire pression sur le gouvernement lorsque leurs intérêts sont menacés. Ils les incitent à écrire des lettres, à envoyer des e-mails ou encore à appeler leurs élus lors des débats importants.

« J’aimerais que les Wikipédiens s’engagent de cette manière afin d’influencer le développement d’Internet. » ajoute-t-elle.

À quoi donc ressemblera Wikipédia dans 10 ans ? « J’aimerais qu’elle soit plus complète, qu’elle soit plus dense. La version anglaise est vraiment impressionnante, mais la variété de son contenu réflète malheureusement la catégorie sociale prédominante des éditeurs. J’aimerais au contraire que, pour toutes les langues, le contenu bénéficie des connaissances et du savoir de toute la population. »

Notes

[1] Crédit photo : Enokson (Creative Commons By)




2011 : année Mozilla Firefox ou année Google Chrome ?

Laihiu - CC byEn mai dernier, nous publiions un billet au titre ravageur : Google Chrome m’a tuer ou le probable déclin de Firefox si nous n’y faisons rien.

De nouveaux chiffres sont arrivés depuis dans le monde des navigateurs. Et si l’on peut légitimement faire la fête et se réjouir de voir Firefox dépasser aujourd’hui Internet Explorer en Europe, on constate comme prévu qu’un nouvel invité est arrivé et qu’il est particulièrement glouton.

Entre les deux, le coeur de Glyn Moody ne balance pas et il sait, tout comme nous, où placer sa confiance. Encore faudrait-il que, techniquement parlant, Firefox ne se laisse pas trop distancer et c’est aussi pourquoi la sortie de la version 4 est tant attendue[1].

2011 : L’année de Firefox ou de Chrome ?

2011: The Year of Firefox – or of Chrome?

Glyn Moody – 4 janvier 2011 – ComputerWorld
(Traduction Framalang : Penguin et Barbidule)

Tout le monde sait qu’il y a les mensonges, les mensonges énormes et les statistiques concernant le Web. Mais ces dernières peuvent néanmoins vous donner une vague idée de la situation. C’est le cas des récents chiffres sur les parts de marché des navigateurs en Europe.

L’événement principal est immédiatement manifeste : comme le graphique le montre, la part de marché de Firefox a dépassé celle d’Internet Explorer, avec 38,11% contre 37,52% (même si les deux dernières décimales ne m’inspirent qu’une confiance limitée voire nulle).

Maintenant, il est vrai qu’il s’agit uniquement de l’Europe, qui a toujours été pionnière dans ce domaine, mais il faut tout de même savourer l’instant. Après tout, lorsque Mozilla puis Firefox furent lancés, peu leur donnaient des chances de réussir à renverser le géant Microsoft. Il n’y avait tout simplement pas de précédent pour un courageux nouvel arrivant, et encore moins un arrivant open source, de partir de zéro et d’arriver à supplanter une entreprise qui semblait inarrêtable sur ses marchés clés. Il est vrai qu’au niveau du serveur, Apache est devant Internet Information Server de Microsoft, mais Apache était arrivé en premier, et était donc celui à battre : la situation du côté du client était très différente.

Évidemment, ce n’est pas la seule chose que nous dit ce graphique. Firefox a en fait légèrement régressé l’année dernière, c’est surtout qu’Internet Explorer a reculé encore plus. Et cette baisse a presque entièrement bénéficié à Google Chrome, dont la part de marché est passée de 5,06% à 14,58% pendant cette période.

C’est vraiment étonnant à tout point de vue, et cela confirme l’ascension de Chrome au Panthéon des navigateurs. La question est évidemment de savoir si cette ascension vertigineuse va se poursuivre, et ce qui va arriver aux autres navigateurs.

Naturellement, cela dépendra beaucoup des fonctionnalités qu’auront les nouvelles versions de Firefox, et dans une moindre mesure, d’Internet Explorer, mais je ne vois pas de raisons qui empêcheraient Chrome de s’élever au-dessus des 20% à court terme. Cela veut dire bien entendu que les parts de marché de Firefox et d’Internet Explorer vont continuer à baisser. Mais comme je le notais il y a quelque temps, ce n’est pas vraiment un gros problème pour Firefox, alors que ça l’est pour Microsoft.

La raison est assez simple : Firefox n´a jamais eu pour objectif la domination du monde, il combattait pour créer un Web ouvert, où aucun navigateur n’occuperait une position dominante d’où il pourrait ignorer les standards ouverts et imposer à la place des standards de facto. C’est plus ou moins la situation actuelle, désormais, Internet Explorer devenant de plus en plus conforme aux standards, et, de façon étonnante, l’affichant avec fierté.

Avec l’ascension continue de Chrome jusqu’au point où les trois navigateurs auront plus ou moins la même part de marché, nous aurons une situation parfaite pour une compétition amicale à trois, ce qui est même mieux qu’une simple rivalité à deux. Je suis presque sûr que le Web va devenir de plus en plus ouvert grâce à cela (c’est dommage qu’il reste menacé par d’autres actions : ACTA, censure, etc.).

Mais cela ne veut pas dire que Firefox et Chrome ont les mêmes buts, et qu’il ne faut pas s’inquiéter des parts de marché de Firefox. Il est important de se rappeler pourquoi Google a créé Chrome, et pourquoi il a libéré le code. C’est simplement parce qu’il sait que libérer le code, et permettre à d’autres de construire par dessus, est le moyen le plus rapide de donner une place à un produit dans un marché concurrentiel. En faisant cela, il est vrai que Google promeut les standards ouverts et l’open source, mais seulement jusqu’à un certain point.

La différence principale est que Google voit l’open source comme un moyen de générer davantage de revenus, alors que Firefox voit les revenus générés par la barre de recherche comme un moyen de favoriser son travail de protection et d’amélioration d’un Web ouvert. Entre les deux, je sais où je préfère placer ma confiance pour l’avenir.

Notes

[1] Crédit photo : Laihiu (Creative Commons By)




Le long chemin du Libre Accès au Savoir à l’Université

Liber - CC by-saLa question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever[1].

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition : « chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ». Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inacessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT). Mais étonnament, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la techologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisament convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlrement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA.

Notes

[1] Crédit photo : Liber (Creative Commons By Sa)




Geektionnerd : Linux accélère

Le noyau Linux possède plusieurs millions de lignes de code mais parfois il en suffit d’une poignée pour sensiblement améliorer les choses (cf cette news de LinuxFr).

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)