Wikipédia ou quand prendre soin peut faire des miracles

Alice Popkorn - CC by-saComme tout miracle il était imprévu, mais en l’occurrence il a bien eu lieu.

C’est que nous rappelle ici Clay Shirky, considéré comme l’une des têtes pensantes du Web.

Parce que « si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister ».

Et pourtant cette encyclopédie tourne. Et elle tourne parce que suffisamment de gens se sentent concernés et veulent en prendre soin. C’est le double et joli sens du verbe « to care » (plus proche ici de Bernard Stiegler que de Martine Aubry !).

« Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal. »[1]

Cet article vient clore en beauté notre petite série d’articles consacrés à Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Wikipédia – un miracle imprévu

Wikipedia – an unplanned miracle

Clay Shirky – 14 janvier 2011 – The Guardian
(Traduction Framalang : DaphneK)

Depuis sa naissance il y a tout juste dix ans, Wikipédia s’améliore de jour en jour. C’est pourtant incroyable qu’il puisse même exister.

Wikipédia est l’outil de référence le plus utilisé au monde. Cette affirmation est à la fois ordinaire et stupéfiante : c’est le simple reflet du nombre considérable de ses lecteurs et pourtant, si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister. Et encore moins avoir atteint un succès aussi spectaculaire en à peine une dizaine d’années.

Grâce à l’effort cumulé des millions de contributeurs de Wikipédia, il suffit d’un clic pour savoir ce qu’est un infarctus du myocarde, connaître les causes de la guerre de la Bande d’Agacher, ou encore découvrir qui était Spangles Muldoon.

Il s’agit d’un miracle imprévu, comme lorsque « le marché » décide de la quantité de pain disponible en magasin. Wikipédia est cependant encore plus bizarre que le marché : Non seulement tout le contenu est rédigé gratuitement, mais il est aussi disponible gratuitement. Même les serveurs et systèmes d’administration sont financés par des dons. On aurait pourtant eu du mal à imaginer un tel miracle à ses débuts. C’est pourquoi, à l’occasion du dixième anniversaire du site, cela vaut la peine de revenir sur l’invraisemblable histoire de sa genèse.

Il y a dix ans jour pour jour, Jimmy Wales et Larry Sanger s’efforçaient en vain de créer Nupedia, une encyclopédie en ligne dotée d’un système de publication en sept étapes. Malheureusement, cela représentait aussi sept endroits où les choses pouvaient s’immobiliser. Et après presque un an de travail, pratiquement aucun article n’avait encore été publié.

Alors il y a dix ans et un jour, Wales et Sanger décidèrent d’opter pour un wiki, afin de raccourcir une partie du processus. Sanger a alors envoyé un mail aux collaborateurs de Nupedia en les informant de cette nouveauté : « Faites-moi plaisir. Allez-y et ajoutez un petit article. Cela prendra cinq ou dix minutes, grand maximum. »

Le « Faites-moi plaisir » était nécessaire car le wiki est le média social par excellence. Inventé au milieu des années 90 par Ward Cunningham, le wiki n’a qu’une fonction primordiale : produire immédiatement du contenu. Pas besoin de permission pour ajouter, modifier ou supprimer du texte, et une fois le travail terminé, pas besoin de permission non plus pour le publier.

Mais ce qui est plus intéressant, c’est qu’au centre du wiki se trouve une seule action sociale qui pourrait se résumer à : je me sens concerné (NdT : I care, que l’on aurait aussi pu traduire par « J’en prends soin »). Les gens qui rédigent des pages sont ceux qui se sentent assez concernés pour les rédiger. Confier le travail à ces gens plutôt qu’aux sacro-saints experts était quelque chose de tellement audacieux, que Wales et Sanger décidèrent de ne pas remplacer Nupedia par le wiki, ce dernier n’étant là que comme une sorte de brouillon pour Nupedia.

Les participants, cependant, ne l’entendaient pas ainsi. La possibilité de créer un article en cinq minutes et d’en améliorer un autre encore plus rapidement devint une pratique si communicative qu’en quelques jours à peine, il y eut plus d’articles sur le wiki nouveau-né que sur Nupedia. Le wiki fut tellement performant et si différent de Nupedia qu’il migra vite sur un site à part entière. Wikipédia était né (quelques mois plus tard, Nupedia ferma définitivement et Sanger abandonna le projet).

C’est ce processus qui se poursuit aujourd’hui, transformant Wikipédia en un miracle ordinaire pour plus de 250 millions de personnes par mois. Chaque jour de ces dix dernières années, Wikipédia s’est amélioré car quelqu’un – plusieurs millions de quelqu’un en tout – a décidé de l’améliorer.

Parfois il s’agit de commencer un nouvel article. La plus souvent il faut juste retoucher un texte déjà rédigé. Parfois il faut défendre Wikipédia contre le vandalisme. Mais il faut toujours se sentir concerné. La plupart des participants se sentent un peu concernés, ne rédigeant qu’un article. Une poignée se sent toutefois très concernée, produisant des centaines de milliers de lignes à travers des milliers d’articles au fil des années. Le plus important c’est que dans l’ensemble, nous avons tous produit assez pour faire de Wikipédia ce qu’il est aujourd’hui. Ce qui nous apparaît comme quelque chose de stable est en fait le résultat d’incessantes tentatives pour préserver ce qui est bon et améliorer ce qui ne l’est pas. Ainsi, Wikipédia ne se définit pas comme un objet, fut-il virtuel, soutenu par une organisation, mais comme une activité qui entraîne une encyclopédie dans son sillage.

Ce glissement de l’objet vers l’activité a entraîné une des plus incroyables expansions de révisions jamais vue : Le rédacteur en chef de Wikipédia est un quorum tournant composé d’individus particulièrement attentifs. Beaucoup de critiques de Wikipédia se sont concentrées sur le fait que le logiciel laisse n’importe qui écrire n’importe quoi. Ce qui leur échappe, c’est que les liens sociaux entre ces éditeurs motivés permet justement de contrôler cette fonctionnalité. Si le logiciel permet facilement de causer des dégâts, il permet tout aussi facilement de les réparer.

Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal.

Bien sûr, Wikipédia n’est pas parfait. Beaucoup d’articles médiocres ont besoin d’être améliorés. L’âge, le sexe ou le groupe ethnique des rédacteurs ne sont pas assez variés et les biographies des personnes vivantes sont continuellement truffées d’erreurs. De plus, les protections mises en place contre les vandales et les spammers font bien souvent fuir les novices et épuisent les anciens. Mais Wikipédia n’est pas seulement une activité au niveau des articles. Partant de la production individuelle pour atteindre la culture de tous, Wikipédia est un bien commun créé par le public. C’est donc aux gens qui se sentent concernés d’essayer aussi de résoudre ces problèmes. Tant que cette culture continuera de considérer « soyez audacieux » comme valeur principale, le site demeurera l’un des actes collectifs de générosité les plus importants de l’Histoire.

Souhaitons donc un joyeux anniversaire à Wikipédia, accompagné de chaleureux remerciements aux millions de personnes qui ont ajouté, modifié, discuté, rectifié, ces gens qui ont créé l’outil de référence le plus utilisé au monde. Merci de nous raconter l’histoire des émeutes de Stonewall et comment Pluton a été reléguée au rang de « planète naine », merci de nous parler de la vallée du grand rift et du tsunami de l’Océan Indien, des rascasses volantes, des « Tiger teams » et du « Bear Market ».

Et avec nos meilleurs vœux pour ce dixième anniversaire, souhaitons d’être assez nombreux à nous sentir concernés pour permettre à Wikipédia de souffler ses vingt bougies en parfaite santé.

Notes

[1] Crédit photo : AlicePopkorn (Creative Commons By-Sa)




Quand Wikpédia rime avec le meilleur des USA

Stig Nygaard - CC byNous avons déjà publié des articles sur Wikipédia à l’occasion de son dixième anniversaire, mais aucun qui n’avait cette « saveur si américaine », et c’est justement ce qui nous a intéressé ici.

L’auteur se livre ici à une description pertinente mais classique de l’encyclopédie libre, à ceci près qu’il y fait souvent mention des États-Unis[1].

Si le récent massacre de Tucson symbolise le pire des USA, alors Wikipédia est son meilleur. Et merci au passage à la liberté d’expression toute particulière qui règne dans ce pays.

En lecture rapide, on aurait vite fait de croire que l’encyclopédie est américaine en fait !

Or le contenu du Wikipédia n’appartient à personne puisqu’il appartient à tout le monde grâce aux licences libres attachées à ses ressources. Mais que le créateur, les serveurs (et donc la juridiction qui en découle), le siège et la majorité des membres de cette Fondation, aient tous la même origine n’est ni neutre ni anodin.

On a vu le venin de l’Amérique – Saluons désormais Wikipédia, pionnier made in US du savoir-vivre mondial.

We’ve seen America’s vitriol. Now let’s salute Wikipedia, a US pioneer of global civility

Timothy Garton Ash – 12 janvier 2011 – Guardian.co.uk
(Traduction Framalang : DaphneK)

Malgré tous ses défauts Wikipédia, qui vient de fêter ses dix ans, est le meilleur exemple d’idéalisme à but non-lucratif qu’on puisse trouver sur Internet.

Wikipédia a eu dix ans samedi dernier. C’est le cinquième site Web le plus visité au monde. Environ 400 million de gens l’utilisent chaque mois. Et je pense que les lecteurs de cet article en font certainement partie. Pour vérifier une information, il suffit désormais de la « googliser » puis, la plupart du temps, on choisit le lien vers Wikipedia comme meilleure entrée.

Ce que cette encyclopédie libre et gratuite – qui contient désormais plus de 17 millions d’articles dans plus de 270 langues – a d’extraordinaire, c’est qu’elle est presque entièrement écrite, publiée et auto-régulée par des volontaires bénévoles. Tous les autres sites les plus visités sont des sociétés commerciales générant plusieurs milliards de dollars. Facebook, avec juste 100 millions de visiteurs en plus, est aujourd’hui évalué à 50 milliards de dollars.

Google à Silicon Valley est un énorme complexe fait de bureaux et de bâtiments modernes, comme une capitale surpuissante. On peut certes trouver des pièces de Lego en libre accès dans le foyer, mais il faut signer un pacte de confidentialité avant même de passer la porte du premier bureau. Quant au langage des cadres de Google, il oscille curieusement entre celui d’un secrétaire de l’ONU et celui d’un vendeur de voitures. On peut ainsi facilement passer du respect des Droits de l’Homme au « lancement d’un nouveau produit ».

Wikipédia, par contraste, est géré par une association à but non-lucratif. La Fondation Wikimedia occupe un étage d’un bâtiment de bureau anonyme situé au centre de San Francisco et il faut frapper fort à la porte pour pouvoir entrer. (On parle d’acheter une sonnette pour fêter les dix ans.) A l’intérieur, la fondation ressemble à ce qu’elle est : une modeste ONG internationale.

Si Jimmy Wales, l’architecte principal de Wikipedia, avait choisi de commercialiser l’entreprise, il serait sans doute milliardaire à l’heure actuelle, comme le fondateur de Facebook Mark Zuckerberg. Selon Wales lui-même, placer le site sous licence libre était à la fois la décision la plus idiote et la plus intelligente qu’il ait jamais prise. Plus que n’importe quel autre site international, Wikipedia fleure encore bon l’idéalisme utopique de ses débuts. Les Wikipédiens, comme ils aiment se définir eux-mêmes sont des hommes et des femmes chargés d’une mission. Cette mission qu’ils endossent fièrement, pourrait se résumer par cette phrase presque Lennonienne (de John, pas Vladimir) prononcée par celui que tout le monde ici appelle Jimmy : « Imaginez un monde dans lequel chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines ».

Insinuer que ce but utopique pouvait être atteint par un réseau d’internautes volontaires – travaillant pour rien, publiant tout et n’importe quoi, sachant que leurs mots sont immédiatement visibles et lisibles par le monde entier – était, bien entendu, une idée totalement folle. Pourtant, cette armée de fous a parcouru un chemin remarquablement long en dix ans à peine.

Wikipédia a toujours de très gros défauts. Ses articles varient généralement d’un sujet ou d’une langue à l’autre en termes de qualité. En outre, beaucoup d’articles sur des personnalités sont inégaux et mal équilibrés. Ce déséquilibre dépend en grande partie du nombre de Wikipédiens qui maîtrisent réellement une langue ou un sujet particulier. Ils peuvent être incroyablement précis sur d’obscurs détails de la culture populaire et étonnement faibles sur des sujets jugés plus importants. Sur les versions les plus anciennes du site, les communautés de rédacteurs volontaires, épaulées par la minuscule équipe de la Fondation, ont fait beaucoup d’efforts afin d’améliorer les critères de fiabilité et de vérifiabilité, insistant particulièrement sur les notes et les liens renvoyant aux sources.

Pour ma part, je pense qu’il faut toujours vérifier plusieurs fois avant de citer une information puisée sur le site. Un article sur Wikipédia paru dans le New Yorker notait à ce propos la fascinante distinction entre une information utile et une information fiable. Dans les années à venir, l’un des plus grands défis de l’encyclopédie sera de réduire l’écart qui pouvant exister entre ces deux notions.

Un autre grand défi sera d’étendre le site au-delà des frontières de l’Occident, où il est né et se sent le plus à l’aise. Un expert affirme qu’environ 80% des textes proviennent du monde de l’OCDE. La fondation vise 680 millions d’utilisateurs en 2015 et espère que cette croissance sera principalement issue de régions comme l’Inde, le Brésil et le Moyen-Orient.

Pour percer le mystère Wikipédia, il ne s’agit pas de pointer ses défauts évidents, mais de comprendre pourquoi le site fonctionne si bien. Les Wikipédiens offrent plusieurs explications : Wikipédia est né assez tôt, alors qu’il n’existait pas encore autant de sites dédiés aux internautes novices, une encyclopédie traite (principalement) de faits vérifiables plutôt que de simples opinions (ce qui est monnaie courante mais aussi un des fléaux de la blogosphère), mais c’est surtout avec sa communauté de rédacteurs-contributeurs que Wikipedia a trouvé la poule aux oeufs d’or.

Par rapport à l’échelle du phénomène, la masse des rédacteurs réguliers est incroyablement faible. Environ 100 000 personnes rédigent plus de cinq textes par mois mais les versions les plus anciennes comme l’anglais, l’allemand, le français ou le polonais sont alimentés par un petit groupe de peut-être 15 000 personnes, chacune effectuant plus de 100 contributions par mois. Il s’agit en grande majorité d’hommes jeunes, célibataires, qui ont fait des études. Sue Gardner, Directrice Executive de la Fondation Wikimedia, affirme qu’elle peut repérer un Wikipédien-type à cent mètres à la ronde. Ce sont les accros du cyberespace.

Comme la plupart des sites internationaux très connus, Wikipédia tire avantage de sa position privilégiée au sein de ce que Mike Godwin, Conseiller Général chez Wikipédia jusqu’au mois d’octobre dernier, décrit comme « un havre de liberté d’expression appelé les États-Unis » Quel que soit le pays d’origine du rédacteur, les encyclopédies de toutes les langues différentes sont physiquement hébergées par les serveurs de la Fondation situé aux États-Unis. Ils jouissent des protections légales de la grande tradition américaine qu’est la liberté d’expression.

Wikipédia a cependant été remarquablement épargnée par la spirale infernale particulièrement bien résumée par la Loi de Godwin (que l’on doit au même Mike Godwin). Cette règle affirme en effet que « lorsqu’une discussion en ligne prend de l’ampleur, la probabilité d’une comparaison faisant référence au Nazis ou à Hitler est environ égale à 1 ». Ceci est en parti dû au fait qu’une encyclopédie traite de faits, mais aussi parce que des Wikipédiens motivés passent énormément de temps à défendre leurs critères de « savoir-vivre » contre les nombreuses tentatives de vandalisme.

Ce savoir-vivre – traduction française du « civilty » anglais – est l’un des cinq piliers de Wikipédia. Depuis le début, Wales soutient qu’il est possible de réunir honnêteté et politesse. Toute une éthique en ligne, une nétiquette – pardons, une wikiquette – s’est développée et mise en place autour de cette notion, donnant naissance à des abréviations telles que AGF (Assume Good Faith) qu’on pourrait traduire par « Supposez ma Bonne Foi ». Les personnes manquant de savoir-vivre sont courtoisement interpelées puis mises en garde, avant d’être exclues si elles persistent. Mais je ne suis pas en position de juger si tout ceci se vérifie dans les versions sorabe, gagaouze et samoanes du site. Wikipédia a peut-être sa part de propos déplacés, mais si une communauté a tendance à dégénérer, la Fondation a au final le pouvoir d’ôter les tirades incriminées du serveur. (Wikipédia est une marque protégée par la loi, alors que Wiki-autre-chose ne l’est pas ; D’ailleurs Wikileaks n’a rien à voir avec Wikipedia et n’est même pas un « wiki » au sens collaboratif du terme.)

Nous ne sommes toujours pas en mesure de savoir si la fusillade de Tucson, en Arizona, est le produit direct du détestable climat qui règne actuellement sur le discours politique américain, tel qu’on a pu l’entendre sur des émissions de radio et de télévisions comme Fox news. Un fou est peut-être tout simplement fou. Mais le venin servi chaque jour par la politique américaine est un fait indéniable. Pour lutter contre ce climat déprimant, il est bon de pouvoir célébrer une invention américaine qui, malgré ses défauts, tente de propager dans le monde entier une combinaison d’idéalisme bénévole, de connaissance et de savoir-vivre acharné.

Notes

[1] Crédit photo : Stig Nygaard (Creative Commons By-Sa)




Wikipedia a 10 ans : Un petit bilan en compagnie de Wired et de Sue Gardner

Lane Hartwell - Wikimedia Commons - CC by-saUn nouvel élément à ajouter à notre série d’articles sur Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Ici nous poursuivons avec Sue Gardner, la remarquable Executive Director de la Wikimedia Foundation, en procédant un peu à l’envers puisqu’après les perspectives vient le temps du bilan. On y évoque bien sûr la fiabilité mais aussi les récentes avancées, qui sont autant de projets, dans les milieux culturels et éducatifs.

Il est dit dans l’article que pour beaucoup de monde, Wikipedia concrétise à la perfection les premières promesses de l’Internet en proposant une « incarnation de ce que le Web peut offrir de mieux »[1]. Nous en faisons partie 😉

On y trouve également un passage qui devrait particulièrement intéresser les lecteurs du Framablog. Il s’agit d’une critique d’un ancien rédacteur en chef de l’encyclopédie Britannica. Vous me direz qu’il n’est pas forcément objectif mais l’argument avancé mérite à mon avis d’être commenté voire débattu :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Une décennie pour Wikipédia, le projet collaboratif emblématique

A decade of Wikipedia, the poster child for collaboration

Olivia Solon – 10 janvier 2011 -Wired UK
(Traduction Framalang : Goofy, Slystone, Marianne et Penguin)

À l’heure où Wikipédia fête son dixième anniversaire, Wired.co.uk s’entretient avec Sue Gardner, directrice de la Wikimedia Foundation, à propos du rôle de l’encyclopédie collaborative sur le Web et son plan de domination mondiale.

Wikipédia, beaucoup le considèrent encore comme un petit secret honteux. Un site que l’on consulte discrètement dès qu’une conversation au bureau dérive vers un domaine où l’on n’est pas spécialement à notre aise. Lorsqu’on y fait référence explicitement, c’est souvent en ajoutant bien vite qu’on connaît bien ses insuffisances. Nous avons tous l’habitude des sous-entendus sarcastiques qui accompagnent la phrase rituelle : « Si c’est dans Wikipédia, c’est que ça doit être vrai ». Mais ces sous-entendus ironiques se dissipent peu à peu à mesure que le système s’améliore et que consulter le site devient moins honteux et moins un secret chaque jour.

Exactement 10 ans après son lancement et 17 millions d’articles plus tard, la figure emblématique des projets collaboratifs fait désormais partie de la vie quotidienne du monde développé, avec de sérieuses percées en cours dans le reste du monde.

La personne chargée de mener à bien le développement de Wikipédia, c’est Sue Gardner, directrice de la Wikimédia Foundation. Ex-journaliste combative et directrice de CBC.ca, Mme Gardner a été recrutée en 2007 dans le but de développer une stratégie claire pour l’organisation à but non lucratif. Son principal défi était de s’assurer que la gigantesque communauté disparate de contributeurs du monde entier était bien en phase avec l’objectif commun. Selon le fondateur de Wikipédia Jimmy Wales, engager Mme Gardner a été « une des meilleures décisions que nous ayons prises ».

Les chiffres en témoignent : depuis l’embauche de cette brillante canadienne, les revenus ont en effet plus que triplé, et l’audience du site a augmenté de 85 %. Après une lecture approfondie des sources de revenus de la fondation et deux ans d’expériences diverses, elle s’est rendue compte que la meilleure stratégie consistait à cibler les dons privés d’un faible montant.

« Dans un monde à but non lucratif, on poursuit normalement deux objectifs bien distincts, la prise en charge des frais de service, et la production de revenus. Ces deux composantes sont généralement en déséquilibre. La plus grosse surprise en ce qui me concerne fut de découvrir que l’on pouvait harmoniser l’ensemble de manière à ce que les dons proviennent des mêmes personnes que celles à qui nous fournissons un service. »


En tant que cinquième site le plus visité dans le monde, son hébergement sur serveur a un coût conséquent. L’organisation à but non lucratif lance chaque année une opération de levée de fonds afin d’assurer le fonctionnement du site pour l’année suivante. La dernière campagne vient juste de se terminer, elle s’est soldée par la récolte de 16 millions de dollars donnés par 500 000 personnes.

Pour beaucoup de monde, Wikipedia concrétise à la perfection la vision des premières promesses de l’internet. Gardner s’aventure même à dire que c’est « l’incarnation de ce que le Web peut faire de mieux. »

« C’est la promesse que les gens vont travailler ensemble, c’est l’illustration de gens travaillant ensemble en confiance, c’est la démocratisation de l’information et de la liberté d’accès à l’information, malgré les nombreux et récurrents dangers qui la menacent. »

Joseph Reagle, auteur du livre The Good Faith Collaboration (NdT : La collaboration de bonne foi), et ancien étudiant à Harvard ajoute : « par défaut, l’interaction en ligne est faite pour ceux qui refusent de voir le pire chez les autres, même chez les nazis comme l’indique la loi de Godwin. Wikipedia au contraire, promeut et est dépendant de personnes collaborant ensemble en toute bonne foi. »

Quelles en sont les points faibles ? Gardner ne fait pas preuve de réserve : « c’est un travail qui progresse sans arrêt, on aura donc toujours besoin de faire mieux. Tous les aspects doivent être améliorés. »

Tandis que Wikipedia se concentre sur l’amélioration et l’expansion, le site est sous un feu constant de critiques de personnes qui l’accusent de ne pas être objectif, de ne pas être fiable, et de préférer, au cours du processus d’édition, le consensus plutôt que le mérite et les qualifications.

Robert McHenry, auteur et ancien rédacteur en chef de l’encyclopédie Britannica, résume ce qu’il décrit comme l’erreur fatale du modèle Wikipedia :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Il n’a certainement pas tort, il y a beaucoup d’exemples d’informations fausses, parfois diffamatoires, qui sont par exemple écrites sur des profils biographiques. Ainsi en 2005, John Seigenthaler Sr, assistant du ministre de la justice Robert Kennedy au début des années 60, journaliste reconnu et plus tard éditeur créateur de USA Today, fut la cible de vandalisme sur Wikipedia. Une fausse biographie de Wikipedia l’accusa d’être un suspect du meurtre de Kennedy. Et la notice resta en l’étant pendant 132 jours. Ceci illustre le biais systémique qui fait que les événements contemporains attirent bien plus l’attention (et le manque d’objectivité lié à l’absence de sources et de recul) que les événements plus anciens, et la culture pop bénéficie à ce titre d’une couverture disproportionnée.

Cela ne veut pas dire que les encyclopédies traditionnelles sont dépourvues d’erreurs. Il y a eu une série d’études comparant la fiabilité de Wikipedia avec d’autres encyclopédies (telle que l’enquête réalisée par Nature en 2006 comparant Wikipedia et Britannica), qui ont montré que la fiabilité de Wikipedia est en hausse. L’étude de Nature précitée révèle que les articles scientifiques de Wikipedia s’approchent du niveau d’exactitude de l’encyclopédie Britannica, et avait un taux équivalent « d’erreurs sérieuses ».

Gardner le concède : « En 2001, Wikipedia n’était pas une source d’information riche et complète, c’était très partiel. Mais chaque année et chaque jour, Wikipedia s’améliore. »

Elle décrit un changement d’attidude et de comportement dans le monde académique et les communautés culturelles. L’initiative GLAM (Galleries, Libraries, Archives, Museums) rapproche les utilisateurs de Wikipedia des membres des instituts culturels, y compris le British Museum, dans le but d’une part d’améliorer le contenu culturel de Wikipedia et d’autre part d’offrir aux institutions un espace pour exposer leurs collections.

Un événement à Londres en novembre dernier a réuni les représentants de quelques grands organismes culturels, afin de voir ensemble comment ils pouvaient contribuer davantage à Wikipedia (NdT : Un évènement similaire a également eu lieu en France).

Gardner dit : « c’était vraiment encourageant de voir les gardiens de la culture et du savoir considérer Wikipedia de plus en plus sérieusement. Cela ne serait pas arrivé cinq ans aupravant. »

Parallèlement s’est ouvert un programme de sensibilisation destiné au monde académique dans le but de contribuer à améliorer le contenu. Le Wikipedia Ambassador Program qui a débuté en 2010 implique et accompagne les enseignants qui veulent participer à Wikipedia à travers leurs cours. L’idée est d’agrandir la communauté des éditeurs tout en aidant les enseignants à avoir une utilisation plus aisée de Wikipedia.

Quand on lui demande si Wikipedia pourrait un jour être considéré comme une source crédible dans le monde académique, Gardner dit : « nous ne recommandons pas que les gens utilisent Wikipedia pour faire des citations dans leur travail, de même que nous ne recommandons pas qu’ils utilisent l’encyclopédie Britannica. Le but d’une encyclopédie est d’être un point de départ pour faire de la recherche. Vous pouvez apprendre les bases, et approfondir la lecture de l’article en regardant les références pour trouver et y suivre les sources originales. »

L’argument de la fiabilité, selon Gardner, passe à côté de la « véritable histoire » : l’accès à l’information a augmenté selon une courbe exponentielle. « Pour le lecteur d’information, le monde est radicalement meilleur qu’il ne l’était il y a 10 ans ou 20 ans. »

Quiconque âgé de plus de 20 ans se souvient du temps où, pour trouver des informations sur un obscur politicien, un artiste underground ou la dernière action militaire d’un pays en particulier, il fallait consulter une encyclopédie en 30 volumes, aller à la bibliothèque ou espérer qu’un adulte autour de vous ait la réponse.

Ayant épuisé ces possibilités, on s’était habitué au fait qu’on ne saurait probablement jamais. Ou en tout cas pas avant la sortie de la prochaine édition de l’encyclopédie et, même dans ce cas, sans la certitude que la question y serait traitée.

Aujourd’hui, tout le monde peut avoir un accés instantané et gratuit à la connaisance collective de centaines de milliers de personnes, mise à jour quotidiennement, et même, la plupart du temps, presque en temps réel. Dans ce contexte, le débat sur la fiabilité perd de son importance.

Notes

[1] Crédit photo : Lane Hartwell (Creative Commons By-Sa)




Les 10 ans de Wikipédia : une occasion médiatique manquée pour le logiciel libre ?

Wikimedia Italia - CC by-saWikipédia célèbre ses dix ans et je me réjouis bien entendu d’observer que l’évènement bénéficie légitimement d’une large couverture médiatique.

En quantité mais aussi et surtout en qualité, car il semble définitivement révolu le temps de l’incompréhension voire d’une certaine hostilité de la grande presse vis-à-vis de l’encyclopédie. Avoir des articles dédiés (et éclairés) dans les versions papiers du Monde ou de Libération permet aussi de mesurer le chemin parcouru[1].

Vous me voyez cependant contraint ici de faire, l’espace d’un court instant, mon schtroumpf grognon au milieu du concert de louanges. Parce que lorsque l’on regarde un peu dans le détail la revue de presse francophone occasionnée par cette date anniversaire, on constate que le logiciel libre est totalement occulté.

Vous me direz que ce n’est ni le sujet, ni le lieu, ni le moment. Vous me direz qu’il est normal que les journalistes adoptent l’angle de l’interview des fondateurs, du témoignage de collaborateurs, ou du « Wikipédia, comment ça marche ? » (ou, mieux encore, « comment ça marche, alors que ça ne devrait pas marcher ! »). Vous me direz aussi que je pêche par égocentrisme libriste. Mais de là à ne jamais évoquer le logiciel libre…

Il est vrai aussi que cette affirmation péremptoire repose sur une méthode sujette à caution. J’ai ouvert à ce jour tous les articles francophones glanés sur le Web qui me semblaient parler des 10 ans de Wikipédia, en cherchant rapidement l’occurrence « libre » dans le corps du texte. Je suis parfois tombé sur « librement diffusable » ou « encyclopédie libre » mais jamais sur « logiciel(s) libre(s) » (ni « licence libre » d’ailleurs).

À une exception près, l’article du Monde (odieusement pompé ici) où l’on peut lire ceci :

Un projet un peu fou : concevoir une encyclopédie en ligne, gratuite, rédigée par des internautes, à laquelle tous, experts ou néophytes, pourraient contribuer, en créant, complétant ou corrigeant les articles grâce à un outil inspiré des logiciels libres, le « wiki  », permettant un travail collaboratif.

Oui, bien sûr, Wikipédia repose sur le logiciel libre Mediawiki, mais ce n’est pas, loin de là, le seul point commun et la seule filiation possible.

« Au commencement était Nupedia… », nous rapelle 01net. Tandis que Jimmy Wales soigne sa légende dans cette vidéo : « J’ai écrit Hello World et j’ai invité les gens à participer ». Factuellement parlant, c’est certainement bien là le début de cette extraordinaire aventure.

Mais cela n’aurait été ni scandaleux ni inopportun de remonter encore un peu plus loin, de remonter aux sources – si j’ose dire – en affirmant, pourquoi pas, que : « Au commencement était le logiciel libre… » (ceci dit, je vous l’accorde, au commencement était Internet aussi !).

Je ne prétends évidemment pas que Wikipédia n’aurait jamais existé sans le logiciel libre. Mais il est indéniable que son expérience, ses méthodes, ses outils (techniques et juridiques), ses combats (contre le copyright, les formats fermés, etc.) lui ont profité et ont participé à son succès. Dans un contexte historique où l’on dresse des bilans et expose la genèse, c’est dommage de ne pas l’avoir cité au moins une seule fois, cela aurait pu mettre la puce à l’oreille à de nombreux lecteurs lambdas.

La présidente de Wikimedia Fance, Adrienne Alix, a eu la bonne idée de récolter les témoignages de quelques pionniers présents aux tous débuts du projet. Morceaux choisis :

« À l’époque, on était en plein dans le haut de la vague du mouvement open source, et cette communauté de bénévoles créant une encyclopédie libre correspondait parfaitement à l’esprit de ce mouvement open source. » (Buzz)

« Wikipédia faisait déjà sensation dans le milieu Libre, projet titanesque qui faisait des petits dans le monde entier. » (Bobby)

« Wikipédia n’était à l’époque pas très connue du grand public mais on en parlait beaucoup dans le milieu du logiciel libre (…) C’est l’idée de transposer les concepts du logiciel libre à d’autres domaines, en dehors de l’informatique, que je trouvais séduisante. » (Polletfa)

« Le mouvement du logiciel libre partage lui aussi des connaissances, il manquait un outil pour le savoir d’une manière générale. » (Hashar)

« Venant du logiciel libre et du monde de l’informatique, j’étais idéologiquement et pratiquement prédisposé à aimer Wikipedia. Trouver Wikipédia formidable allait donc de soi pour moi (…) Je me suis investi plus car j’y ai vu rapidement la promesse de voir les principes du logiciel libre dépasser le cadre de l’informatique (…) La motivation était donc avant tout politique. » (Kelson)

« A la fois partager mes connaissances mais aussi encourager l’esprit du libre, du gratuit, par opposition à la logique financière. Je suis, bien évidemment, un grand défenseur des logiciels libres, et de la libre diffusion de la culture et de l’information. Les droits d’auteur sont une notion dépassée et surclassée par les technologie de l’information ! » (Tonnelier)

Je précise que nous ne sommes pas le seuls à souligner cette filiation, puisque même l’article Wikipédia de Wikipédia le dit 😉

Wikipédia vise à être une encyclopédie libre, ce qui signifie que chacun est libre de recopier l’encyclopédie, de la modifier et de la redistribuer. Cette notion de contenu libre découle de celle de logiciel libre, formulée avant Wikipédia par la Free Software Foundation.

Par ses objectifs et son fonctionnement, le projet Wikipédia s’inscrit dans une série de filiations culturelles dont le concept du copyleft, inventé par Don Hopkins et popularisé par Richard Stallman de la Free Software Foundation, par lequel un auteur autorise tout utilisateur à copier, modifier et distribuer son œuvre, mais aux mêmes conditions d’utilisation, y compris dans les versions modifiées ou étendues, ainsi que la pratique du travail collaboratif sur Internet, développé notamment chez les informaticiens par les adeptes du logiciel libre.

Qu’un journaliste ait bien compris ce lien fort entre Wikipédia et logiciel libre mais l’ait ignoré par manque de place ou parce qu’il le jugeait secondaire, cela m’attriste mais c’est son choix au demeurant tout à fait respectable. Mais Il y a une autre hypothèse, celle du journaliste non informé sur qui l’on ne risque pas encore de pouvoir compter.

Ni sentiment d’ingratitude, et encore moins de jalousie, juste une pointe de frustration pour ceux qui, comme moi, travaillent à faire la promotion du logiciel libre en France et en Navarre. Sur ce, pas de quoi en faire un fromage, et je m’en retourne faire la fête avec mes amis wikipédiens 😉

Avant je disais : « Wikipédia, c’est comme un logiciel libre mais pour les encyclopédies ». Désormais je vais privilégier la formule : « Un logiciel libre, c’est comme Wikipédia mais pour les logiciels ».

Notes

[1] Crédit photo : Wikimedia Italia (Creative Commons By) – « Tieni accesa Wikipedia » – Il est remarquable de constater que les trams du centre ville de Milan ont participé à la campagne de dons en offrant des tarifs préférentiels à l’association Wikimedia Italia.




Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing

Diego da Silva - CC byLorsque Richard Stallman s’exprime, il ne laisse généralement pas la Toile indifférente. Ce qui se comprend aisément puisque, Microsoft, Apple, Facebook, Google…, il critique ouvertement et radicalement ce que tout le monde ou presque utilise au quotidien.

Son récent avis sur le Cloud Computing en général et Google Chrome OS en particulier dans un article du Guardian que nous venons de traduire ne déroge pas à la règle[1].

Jusqu’à donner l’idée à Katherine Noyes de compiler quelques interventions lues dans les commentaires de l’article ainsi que sur le célèbre site Slashdot. Avec ce terrible constat qui ouvre le billet et que je retourne en question aux lecteurs du Framablog : Pensez-vous que Stallman a perdu ?

Déluge de critiques de Stallman sur le Cloud : Prudence ou Paranoïa ?

Stallman’s Cloudburst: Prudence or Paranoia?

Katherine Noyes – 20 décembre 2010 – E-Commerce Times
Traduction Framalang : Olivier Rosseler)

« Je vais pouvoir annoncer à notre bon vieux RMS qu’il a perdu », nous dit hairyfeet, blogueur chez Slashdot. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. »

Quand Richard Stallman s’exprime, la communauté du logiciel libre écoute en général, on en a eu une nouvelle démonstration dans la blogosphère Linux la semaine passée.

C’est à l’occasion de la sortie de Chrome OS, le nouveau système d’exploitation de Google, que le fondateur de la Free Software Foundation a donné son avis, et, fidèle à ses principes, on peut dire qu’il ne nous a pas déçus.

La technologie peut « entraîner les gens à utiliser l’informatique imprudemment », confie Stallman au journal The Guardian, lorsqu’elle leur demande de confier leurs données aux nuages plutôt qu’à des machines dont ils ont le contrôle. Pour Stallman, une forte dépendance au nuage est même « pire que stupide. »

Voilà une opinion forte, à n’en pas douter, mais les réactions qui s’ensuivirent dans la blogosphère n’en furent pas moins fortes.


« Il a complétement raison »

Dans les commentaires ici même sur LinuxInsider, phatpingu qualifie les idées de Stallman d’étriquées. « Je trouve ça assez incroyable qu’il imagine que ces questions n’aient pas été soulevées et débattues en interne chez Google et qu’il pense qu’aucune mesure ou règle définissant la propriété des contenus n’ait été mise en place. »

amicus_curious, lui, oppose un avis plus neutre : « C’est toujours difficile de savoir si RMS se donne en spectacle ou s’il croit vraiment en ce qu’il dit. Mais Chrome OS et le nuage de Google n’ont pas grand-chose à craindre du mépris de Stallman. »

Puis il y a aussi ceux qui partagent ses idées. Parmi la centaine de commentaires qu’a reçus l’article du Guardian, blossiekins écrit : « Il a complètement raison. L’informatique dans les nuages ne fait qu’encourager l’ignorance et la nonchalance des utilisateurs vis-à-vis de leurs données et de ce qui en est fait. »

« Google n’est pas un joli Bisounours qui veut s’occuper de vos données simplement parce qu’il est gentil, il veut s’en occuper parce que ça lui apporte des informations », poursuit blossiekins. « Et plus les choses avancent, plus les risques font froid dans le dos. »

Depuis quelques jours, les arguments pro et anti Stallman résonnent dans la blogosphère, Linux Girl décida alors d’en savoir plus. L’impression dominante dans la blogosphère ne tarda pas à se faire entendre.

L’avantage des logiciels libres

« RMS a évidemment raison », d’après le blogueur Robert Pogson en réponse à Linux Girl, par exemple. « Pour utiliser Chrome, il faut faire confiance au nuage, ce qui est le cas de la plupart d’entre nous. »

Prenez, par exemple, Facebook, suggère Pogson.

« Des centaines de millions de personnes y passent des heures, malgré les innombrables problèmes de sécurité que le site a connus cette année », fait-il remarquer. « Des millions d’utilisateurs font confiance à Google et M$ aussi, mais je pense qu’ils le regretteront tôt ou tard. Je ferais bien plus confiance à un nuage construit avec des outils libres plutôt qu’à un trou noir. »

Pogson rappelle que le nuage a de gros avantages, économiquement parlant, principalement dus aux économies d’échelle dont peuvent bénéficier les grandes entreprises comme Google.

« Les particuliers comme les PME seront tentés d’externaliser leurs emails, leurs données, leurs sauvegardes et la gestion de leurs documents dans le nuage », prédit-il. « Je m’attends à une explosion du marché du nuage en 2011, ainsi que de celui des logiciels libres. Choisir des outils libres plutôt que ceux de M$ ou des solutions « maison » dans les nuages apportera des avantages. »

« La fin de la vie privée »

En effet, « ça me fait mal de l’avouer, vraiment, mais je suis d’accord avec RMS », commence hairyfeet, blogueur chez Slashdot. « Nous offrons les détails de nos vies entières à ces méga-entreprises, et le pire, c’est qu’en retour on ne reçoit rien, même pas un bonbon ou un rabais de 20% sur notre prochain achat. »

« C’est la raison pour laquelle j’ai changé de navigateur, pas pour Chrome ou même Chromium, mais pour Comodo Dragon, dont la philosophie est NE ME PISTEZ PAS », dit hairyfeet.

Malheureusement « Je peux dire à notre bon vieux RMS qu’il a perdu », poursuit-il. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. » Ils ne se rendent sûrement même pas compte « qu’une fois identifiés sur Facebook, ils sont reconnus par quasiment TOUS LES SITES, puisqu’ils sont presques tous interconnectés maintenant. En naviguant, ils laissent donc derrière eux des traces aussi visibles qu’un A380 partout où ils vont », ajoute-t-il.

Alors, « je suis désolé mon bon vieux hippie, mais c’est la fin de la vie privée, tuée par l’ego surdimensionné des gens », conclut hairyfeet.

« Le nuage ? Un effet de mode »

« Je pense que le nuage n’est qu’un effet de mode. On perd le contrôle de nos propres données, en espérant simplement que notre fournisseur fasse bien son boulot avec les sauvegardes », témoigne Gerhard Mack, consultant à Montréal et blogueur pour Slashdot. « Et que faire lorsque je n’ai pas accès à Internet ? ».

Et c’est vraiment « ce qui me gêne le plus avec mon téléphone sous Android », dit-il. « La plupart des applications ont besoin d’une connexion pour fonctionner, mais qu’est-ce que je peux faire si je suis dans une petite ville où j’arrive à peine à capter un réseau 2G et que j’ai besoin des indications du GPS ? Et si j’ai besoin de me servir du traducteur espagnol dans un sous-sol ? »

« C’est du vécu, et ça me laisse penser que le nuage a encore des fortes lacunes », conclut-il.

« Les petites lignes vous (en) privent »

« RMS a absolument raison à propos de l’informatique dans les nuages » acquiesce Barbara Hudson, blogueuse chez Slashdot, plus connue sous le pseudo de Tom sur le site. « Il faut être très attentif lorsqu’on sacrifie notre vie privée sur l’autel de la facilité. »

Les règles de partage de l’information de Gmail, par exemple, sont faites pour « protéger Google, pas pour vous protéger vous, si quelque chose se passe mal », nous explique Hudson. « Pour dire les choses autrement : ce que les grandes lignes vous offrent, les petits lignes vous en privent. »

Mais elle fait tout de même remarquer que Google a déjà, par le passé, refusé de partager avec le gouvernement ses historiques de recherche détaillés.

« Mais bien malin celui qui saura dire ce que nous réserve l’avenir. N’oublions pas que si le magazine Time n’a pas choisi Julien Assange comme personnalité de l’année, c’est, au moins en partie, par peur d’être placé sur la liste noire du gouvernement, aux côtés du New York Times ainsi que cinq autres journaux » dit Hudson.

« Je veux une garantie »

Il faut alors bien vous demander si « vous voulez vraiment que votre hébergeur dans les nuages et ses associés puissent exploiter vos projets commerciaux, vos feuilles de calcul et votre correspondance, professionnelle et personnelle », s’interroge Hudson. « Ou encore si vous désirez devenir la cible d’une perquisition demandée par votre ex-épouse ou par un tordu avec une idée derrière la tête? »


Elle conclut en disant que « Au moins, lorsqu’il s’agit de mon propre disque dur je peux encore dire : Il me faudrait un peu plus qu’une confiance raisonnable, il me faut une garantie ».

Notes

[1] Crédit photo : Diego da Silva (Creative Commons By)




Le long chemin du Libre Accès au Savoir à l’Université

Liber - CC by-saLa question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever[1].

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition : « chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ». Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inacessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT). Mais étonnament, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la techologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisament convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlrement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA.

Notes

[1] Crédit photo : Liber (Creative Commons By Sa)




Une journée aux HackWeeks de l’EPPLUG

EPPLUG - CC by-sa Alors, à quoi ressemblait cette fameuse semaine aux HackWeeks « automne 2010 » finalement ?

Avant de faire un bilan de cette semaine particulière et riche en échanges, consacrons déjà un billet au déroulement type d’une journées standard, au cours de cet évènement qui réunit en un même lieu 25 participants de 4 projets de développement de logiciel libre, logés, nourris et bichonnés par une bonne douzaine de bénévoles de l’association des Éleveurs de Pingouins Picards, le LUG local, célèbre pour son organisation des Rencontres Mondiales du Logiciel Libres en 2007.

D’un certain point de vue, les journées aux HackWeeks commençaient comme ça (petit clin d’œil au passage aux équipes de Seeks et Domogik, ainsi qu’au magnifique soleil matinal amiénois) :

EPPLUG - CC by-sa

Et elles se terminaient de la manière suivante :

EPPLUG - CC by-sa

Mais rassurez-vous, je suis là pour témoigner du fait qu’on était bien traités entre les deux.

D’ailleurs, pour être honnête, les journées commençaient plutôt comme ça :

EPPLUG - CC by-sa

Par un réveil matinal dans les confortables chambres individuelles (à 2 ou 4 lits), situées juste en face du CREPS d’Amiens où se déroulait l’évènement, et que l’on pouvait joindre en deux pas [1] après une bonne douche [2].

Des matinées studieuses

EPPLUG - CC by-sa

Dès 8 h 30, les premiers développeurs acharnés, d’un naturel calme et tranquille [3] se rassemblaient dans la grande salle de travail, où quatre groupes de tables avaient été aménagés pour accueillir les participants de chaque projet.

Toutefois, les développeurs étant visiblement en majorité des « couche-tard », c’est seulement vers 10 h 30 que le gros des troupes en avait fini avec le petit déjeuné, servi sous forme de buffet à volonté dans une salle à part, réservée aux repas, conviviale mais située à l’autre extrémité du long bâtiment ! Bon, objectivement c’est à peu près le seul exercice physique qu’on ait fait de la semaine, mis à part les balades rafraîchissantes pour aller du lieu de travail (le CREPS) aux lieux de rencontres avec le public (des bars en ville).

Sur place, les styles variaient beaucoup d’une table à l’autre, mais on retrouvait partout la même détermination à avancer dans le travail. Pour ce faire, l’équipement était optimal : tables, chaises, multi-prises et câbles ethernets. En creusant un peu plus, on se rendait compte, au fur et à mesure des besoins, qu’il y avait également : bloc-note et stylos à volonté, et même un tableau papier par projet. Un frêle WiFi venait dépanner lors des quelques toussotements du réseautiers du début, lorsque différentes configurations étaient appliquées à la fibre optique mise en place sur-mesure pour l’évènement et ses éditions futures.

Calme et appliquée, l’équipe Domogik qui me prêtait un coin de table a rapidement recouvert son espace de travail d’équipement domotique divers, variés et encombrants. Un nouveau dans l’équipe apprenait les rouages du logiciel, largement guidé par ses deux collègues qui avançaient sur les fonctionnalités attendues. À cette table, le silence était de mise, pour aider à la concentration et surtout pour entendre les petits claquements de relais dans les équipements branchés et en cours de test.

Un peu plus extravertie, l’équipe Seeks débattait au tableau, se répartissait les tâches et s’échangeait quelques blagues sur IRC. L’effet est d’ailleurs toujours aussi surprenant… Tout ce petit monde pianote avec l’air sérieux, et d’un coup les rires fusent, chacun s’empressant d’en rajouter une ligne au clavier 🙂

Du côté de Dolibarr, le standing n’est pas le même. On passe des chercheurs hirsutes aux auto-entrepreneurs dynamiques. Ils étaient 12, discutant, débattant de manière animée et répondant au téléphone à leurs clients. À la table Dolibarr, pour coder il fallait se concentrer. Mais justement, il n’était pas rare d’y trouver des développeurs en pleine action, intensément concentrés sur leur code, parfois même avec des écouteurs sur les oreilles et qui sursautaient si on leur posait une question.

Enfin, les NObjets étaient nettement plus discrets [4], mais tout aussi productifs.

Des déjeuners conviviaux

EPPLUG - CC by-sa

Tous les jours à partir de 12 h 30, une fois les repas du traiteurs livrés avec l’aide des bénévoles de l’EPPLUG, des volées de développeurs gagnaient la salle à manger en traversant joyeusement les couloirs du CREPS. Les repas étaient à la fois bons et légers (sauf le colombo de porc du début, qui servit de leçon pour tout le monde : pour coder efficacement toute la journée, manger léger). Ils étaient aussi très bons et nous sommes tous repartis avec quelques kilos en plus en fin de semaine.

Des après-midi efficaces

EPPLUG - CC by-sa

Sans moment de flottement le travail reprenait rapidement après le repas, avec autant de passion que le matin. Les après-midi, monotones pour un observateur, crépitaient de claviotages dans une ambiance à mi chemin entre une LAN-Party sérieuse et un open-space convivial. De temps à autre, un évènement particulier vient animer l’après midi : une séance avec vidéo-projecteur chez Dolibarr, une lampe qui s’allume enfin chez Domogik, le montage d’un studio radio sur place, la subtile reprise « scientifique », au tableau papier d’un groupe dont je tairai le nom, de la fameuse pub pour le Tonyglandil des Nuls…

Des soirées chaleureuses

Tout ce petit monde s’agitait à nouveau le soir, quelques heures après la tombée de la nuit [5], lorsque les repas arrivaient. Suivant les activités prévues par l’organisation (présentations de projet, projection de court-métrages libres, repas au restaurant…) chacun se motivait pour suivre le programme, les équipes jouant le jeu quitte à manger en avance pour arriver « à l’heure » au bon endroit. Les déplacements s’improvisaient joyeusement, mais il faut bien reconnaître à la décharge des valeureux bénévoles de l’EPPLUG qu’il n’est pas aisé de décoller un geek de son écran, alors pour réussir à en mobiliser plusieurs d’un coup pour espérer faire une navette en voiture, il faut bien du talent…

EPPLUG - CC by-sa

Les lieux de rencontre avec le public étaient spécialement décorés pour l’évènement et l’ambiance y était donc festive. Bien qu’objectivement les présentations de projet n’attirèrent pas les foules, les équipes furent bons publics les unes envers les autres, créant des moments privilégiés d’échange entre les développeurs.

Puis, la nuit avançant les effectifs s’éparpillaient pour entreprendre diverses activités, plus ou moins saines pour le lendemain, avant de finalement rejoindre les chambres du dortoir en briques par petits groupes.

EPPLUG - CC by-sa

Notes

[1] C’est une expression, il en fallait 63 par beau temps et 75 les matins de givre.

[2] Les chambres en sont équipées.

[3] Qu’on appelle aussi geeks.

[4] Enfin discrets, sauf quand la musique d’un casque poussait l’un des artistes à retranscrire avec les index un solo de batterie endiablé, porté par la force du passage, sous le regard médusé de l’assistance…

[5] Qui arrive d’un coup à 16 h en cette saison.




Girl Talk, ou l’art du remix

Girl Talk - CC By NCGirl Talk, de son vrai nom Gregg Gillis n’est pas totalement inconnu du Framablog puisqu’il est le co-producteur du film Rip : A remix manifesto du canadien Brett Gaylor, auquel ont également participé Lawrence Lessig, Cory Doctorow et Gilberto Gil [1], et dont nous parlions récemment dans l’article de Nina Paley sur les confusions à éviter avec les licences Creative Commons.

Toutefois, l’activité principale de Girl Talk n’est pas le cinéma, mais la musique. En effet, cette semaine est sorti le 5e album de Girl Talk, nommé All Day [2] et librement téléchargeable sur son site web (vu l’affluence, nous recommandons de passer par BitTorrent pour ce téléchargement légal de musique en libre diffusion). Comme tous les travaux de Girl Talk, cet album est couvert par une licence Creative Commons By NC, ce qui ferait bondir Nina Paley, mais permet tout de même à tout le monde de télécharger et d’écouter gratuitement les 12 titres de l’album chez soi.

La musique de Girl Talk est particulière, à la fois novatrice et déjà connue du plus grand nombre, il s’agit d’un patchwork d’extraits musicaux d’une quantité invraisemblable de morceaux d’autres artistes, parfaitement imbriqués et se répondant harmonieusement.

Tout y passe, du titre de Beyoncé qui inspira cette BD XKCD de Randall Munroe [3], au morceau de rap qui accompagne les exactions de l’armée américaine dans l’épisode Rap News 4 du billet précédent ! Ça part tous azimuts et ça forme pourtant un tout qui coule de source…

OVNI acoustique rafraîchissant en ces temps d’offre labélisée, de culture officielle et de nullité en mouvement ou en tube, le dernier Girl Talk vous offrira une bouffée d’oxygène et un défi presque sans fin pour retrouver tous les extraits !

Randall Munroe XKCD - CC By NC

Pour la traduction de la BD en français, c’est ici. XKCD a son site de fans français qui traduisent les BD au fur et à mesure de leur sortie.

Notes

[1] Ex ministre de la culture du Brésil.

[2] Crédit photo : Girl Talk Creative Commons By Non-Commercial

[3] Crédit BD : Randall Munroe XKCD.com Creative Commons By Non-Commercial