Lorsque le code peut tuer ou guérir

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Ici plus qu’ailleurs, sacrifier l’humain sur l’autel du business model ne peut plus être une solution durable dans le temps[1].

Patrick - CC by-nc

Lorsque le code peut tuer ou guérir

When code can kill or cure

Technology Quarterly – 2 juin 2012 – The Economist
(Traduction : balsamic, moala, Isammoc, Otourly, Mnyo, HgO, elquan)

Appliquer le modèle open source à la conception d’appareils médicaux permet d’accroitre la sécurité et stimule l’innovation.

Les pompes SMART délivrent des médicaments parfaitements dosés pour chaque patient. Des défibrilateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et coeurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux Etats-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis à vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002. En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or le disfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq. L’Organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus. Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme : « Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique ».

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité. La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel « d’analyse statique » aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Ouvert à l’étude

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée. En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux Etats-Unis et en Inde « Pour un nouveau fabricant, c’est un bon départ » dit Peri Kasthuri, l’un de ses co-fondateurs. En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents.

Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20$. « Mon rêve, dit Dave Arnez, un chercheur participant à ce projet, est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures ».

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT: appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron. Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement, déclare le Dr Prajapati. « Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance » rappelle-t-il, là ou les modèles libres sont plus durables. « Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même. »

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical. Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source.

Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. « Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, explique le Dr Mackie, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer. » Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. « Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne. »

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. « Quand un avion s’écrase, les gens le remarquent », dit le Dr Fu. « Mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention. » Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.

Notes

[1] Crédit photo : Patrick (Creative Commons By-Nc)




Avec SILLAGES l’esprit du libre gagne les grandes écoles

L’association SILLAGES.info a été créée en octobre 2011.

L’ambition de l’initiative SILLAGES est de développer une production collaborative de contenus pédagogiques multimédias contribuant à l’ouverture Sociale et InternationaLe de LAccès aux Grandes EcoleS, et notamment de développer un échange pédagogique avec des universités étrangères souhaitant mieux préparer leurs étudiants aux exigences spécifiques des grandes écoles françaises[1].

Nous avons rencontré deux acteurs de l’initiative SILLAGES : Nathalie Van de Wiele, chef de projet, et Jean-Pierre Archambault, responsable de la communication.

Tulane Public Relations - CC by

Framablog : vous proposez des ressources que vous qualifiez de libres[2]

Nathalie Van de Wiele : oui. L’initiative SILLAGES est à l’origine de la création de deux sites complémentaires disponibles sur internet : une plate-forme et un wiki. Ces sites comptent près de 500 ressources pluridisciplinaires libres et gratuites de niveau L0, L1 ou L2, portant sur les mathématiques, la physique, l’économie, la littérature, le grec ancien, le latin, …

Les ressources SILLAGES pouvant aussi être utiles aux enseignants, elles sont publiées sous licence « Creative Commons » pour une utilisation optimale (elles peuvent ainsi être réutilisées, transformées, modifiées, complétées), les auteurs SILLAGES devant se conformer à la législation en vigueur en terme de droits d’auteurs. Nous avions choisi la licence CC BY – NC avec la possibilité de remixer l’oeuvre. Pour que les choses soient plus claires, nous allons ajouter SA ! SILLAGES menant des partenariats avec les Universités numériques thématiques (UNT), les ressources déposées sur la plate-forme sont référencées par les UNT afin de rendre ces ressources également accessibles par les sites des UNT partenaires (à ce jour UNISCIEL et UOH).

Framablog : la mise en place de ces sites a été dictée par deux aspects essentiels, liés tous deux à la mission même de l’initiative SILLAGES : d’une part, l’aspect « ouverture sociale » et d’autre part, l’aspect « ouverture internationale »; à qui s’adressent vos sites ?

Nathalie Van de Wiele : en terme d’ouverture sociale, les sites SILLAGES s’adressent :

  • aux étudiants abordant l’enseignement supérieur avec des bagages scolaires différents,
  • aux étudiants de milieu modeste éprouvant des difficultés en classes préparatoires,
  • aux étudiants en formation L1 ou L2 préparant leur entrée en grande école.

En terme d’ouverture internationale, ils s’adressent :

  • aux étudiants étrangers désirant entrer en classes préparatoires ou en grande école en France,
  • aux étudiants étrangers n’ayant pas d’accès facile à des bibliothèques et voulant compléter leurs supports pédagogiques.

Framablog : vous proposez des ressources en grec ancien…

Nathalie Van de Wiele : Michèle Tillard, professeur de lettres classiques au lycée Montesquieu du Mans, est l’auteure de nombreux documents concernant le grec ancien et la préparation au programme du concours d’entrée à l’ENS de Lyon, documents disponibles sur la plate-forme ou le wiki SILLAGES, les deux types de ressources étant reliées par des liens hypertextes : un cours complet pour hellénistes débutants, en cours d’élaboration ; un cours de version grecque, sous forme de feuilleton, et en complément, un « kit de survie de l’helléniste » regroupant les principales notions grammaticales sous forme de fiches ; un cours sur l‘Icaroménippe de Lucien (programme de l’ENS Lyon, 2012) ; des fiches de vocabulaire grec.

D’autres cours sont en projet, en particulier sur les œuvres latines et grecques de l’option « Lettres classiques » du concours d’entrée de l’ENS Lyon, à paraître prochainement.

Framablog : et des ressources en sciences physiques…

Nathalie Van de Wiele : Olivier Granier, professeur de physique au lycée Montesquieu du Mans en classe de spéciales PC, a souhaité placer sur la plate-forme SILLAGES de nombreux documents personnels (polycopiés de cours, séances de travaux dirigés, résolution de problèmes de concours, polycopiés de travaux pratiques d’électronique et d’optique), couvrant ainsi l’ensemble du programme de Physique des classes préparatoires au grandes écoles scientifiques et des universités scientifiques (niveau L1 et L2).

Olivier Granier, par ailleurs administrateur de la plate-forme SILLAGES, reçoit d’ailleurs régulièrement des messages électroniques d’utilisateurs souhaitant des informations complémentaires sur les études qu’ils suivent, posant des questions sur tels ou tels points du cours ou demandant encore des précisions sur la résolution d’un exercice.

Framablog : pouvez-vous nous préciser l’apport pour les étudiants étrangers ?

Jean-Pierre Archambault : J’ai eu le plaisir de suivre au sein de SILLAGES deux étudiants de l’ESIA (Ecole supérieure d’informatique, électronique, automatique) chargés d’un projet visant à mieux faire connaître les ressources SILLAGES.

L’un d’eux, Wassim CHIADLI, affirme : « les cours que les étudiants peuvent trouver sur SILLAGES sont à grande valeur ajoutée et constituent pour eux un vrai appui pendant leurs années d’études et surtout pendant leur période de révisions. Cela s’adresse en particulier aux étudiants des pays d’Afrique du Nord et du Moyen Orient bercés dans la francophonie. Le Maroc en est un bon exemple. En effet, il existe beaucoup de similitudes entre les systèmes d’études supérieures français et marocain. Un nombre important d’étudiants marocains s’orientent vers les classes préparatoires pour accéder aux grandes écoles marocaines mais également françaises telles que l’Ecole Polytechnique, Centrale, Mines Ponts et Chaussées, HEC, etc.

Et le plus difficile pour ces jeunes étudiants est de trouver des informations, des cours et des exercices fiables et gratuits afin de réussir leurs parcours. De même, la France reste la destination favorite des Marocains ayant pour but de finaliser leurs études à l’étranger. Cela reste néanmoins une mission délicate pour les candidats libres qui ne possèdent pas systématiquement d’appuis, ni de références.

Le projet SILLAGES peut ainsi aider les étudiants en classes préparatoires à renforcer leurs connaissances et, d’autre part, donner une nouvelle opportunité aux personnes ayant le plus de mal à accéder à l’information ».

Framablog : on voit bien l’intérêt de tels sites qui est de mettre à disposition du plus grand nombre des documents pertinents et adaptés au public visé, enseignants et étudiants de niveau L1 et L2. Mais entretenez-vous des relations en présentiel avec les publics étrangers ?

Nathalie Van de Wiele : nos sites visent à favoriser les échanges pédagogiques à travers le monde. Nous les complétons avec des missions. Olivier Granier a ainsi participé à plusieurs missions à l’étranger, au Liban (Université Saint Joseph, Beyrouth, en avril 2011 et avril 2012), au Cambodge (Institut de technologie du Cambodge, Phnom Penh, en novembre 2011) et au Cameroun (Institut supérieur des technologies et du design industriel, Douala, en février 2012).

Le but de ces missions était à chaque fois sensiblement le même : faire connaître, utiliser et enrichir les ressources SILLAGES, former des étudiants de ces universités étrangères aux spécificités des concours des grandes écoles scientifiques françaises. Olivier Granier a ainsi organisé des séances de préparation aux écrits des concours, effectué des compléments de cours et organisé des séances spécifiques de préparation aux oraux des concours (sous forme d’interrogations orales de type « colles »).

Michèle Tillard est actuellement en train de mettre sur pied un stage en présentiel, destiné aux étudiants hellénistes de l’IPELSHT (Institut Préparatoire aux études littéraires et de Sciences Humaines de Tunis), qui complètera la formation à distance qu’elle a bâtie sur la plate-forme SILLAGES pour ces étudiants, débattant sur un forum dédié de « L’enseignement à distance pour sauver l’enseignement du grec ancien ? ».

Framablog : SILLAGES et le libre ?

Jean-Pierre Archambault : il y a donc tous ces documents en Creative Commons. En outre, bon nombre de ressources élaborées pour l’enseignement à distance sont conçues grâce à des logiciels libres, tels que Geany, Amaya ou encore OpenOffice, et destinés à être lus par l’ensemble des navigateurs, en particulier Mozilla Firefox ou Safari. C’est le cas, notamment, des ressources créées en grec ancien. Les sites eux-mêmes font appel aux logiciels et licences libres (MediaWiki doté d’un éditeur LaTeX pour le wiki SILLAGES et CeCILL pour l’utilisation de la plate-forme SILLAGES).

Et puis, l’esprit avec lequel les enseignants associés à SILLAGES travaillent, notamment lors des missions à l’étranger, relève de l’approche du libre. L’objectif de SILLAGES est bien de favoriser le partage de documents libres mis à disposition sur internet et de promouvoir l’utilisation et la réappropriation qui en est faite auprès de publics demandeurs et souvent éloignés de grands centres documentaires.

Je citerai cette phrase (tirée du site framasoft.net) : « Issu du monde éducatif, Framasoft est un réseau de sites web collaboratifs à géométrie variable dont le dénominateur commun est le logiciel libre et son état d’esprit. Il vise à diffuser le logiciel libre et à le faire connaître auprès du plus large public. ». A mon sens, elle s’applique à la communauté SILLAGES.

Framablog : quels problèmes rencontrez-vous ? Quelles sont vos perspectives ?

Nathalie Van de Wiele : si, dans le contexte de l’ouverture sociale et internationale de l’accès aux grandes écoles l’initiative SILLAGES prend toute sa place, participant à l’offre numérique de l’enseignement supérieur français, menant des expériences concrètes à l’international et offrant une souplesse de moyens sachant répondre à la demande des étudiants, des progrès sont encore à réaliser.

Un bilan des ressources placées sur la plate-forme SILLAGES montre que les ressources scientifiques sont majoritaires mais incomplètes (il n’y a ni chimie, ni biologie, ni sciences de l’ingénieur), que les langues sont absentes des disciplines littéraires et que les sciences économiques et commerciales sont sous-représentées. Sur le wiki SILLAGES, l’édition collaborative a du mal à démarrer.

Le manque de moyens financiers (les membres de SILLAGES sont tous bénévoles et dégagent pour SILLAGES du temps sur leurs activités professionnelles) freine pour le moment des développements plus ambitieux. En terme d’usage, si des efforts sont fait en terme de travail collaboratif pour adapter les ressources à la demande, d’accompagnement des étudiants dans l’utilisation de celles-ci, de coopération internationale entre établissements, l’initiative SILLAGES souffre de ne pas être encore assez connue.

L’association SILLAGES est encore jeune et ne demande qu’à se développer afin d’augmenter le nombre de ressources placées sur la plate-forme ou le nombre d’articles édités sur le wiki et d’attirer vers elle de nombreux enseignants prêts à rejoindre la communauté SILLAGES et à relever le défi qui l’anime.

Framablog : quel rapport établissez-vous entre coopération sur un pied d’égalité et approche du libre ?

Jean-Pierre Archambault : si SILLAGES s’inscrit pleinement dans l’approche du libre aux plans des logiciels utilisés et des ressources pédagogiques produites, des modalités de leur réalisation et de mise à disposition de tous, des réponses en termes de droit d’auteur, ce n’est pas le fruit du hasard.

En effet, si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre.

C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Framablog : d’une manière générale, pensez-vous que pédagogie rime avec libre ?

Jean-Pierre Archambault : oui, et le mouvement est irréversible.

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait au-delà d’un cercle nécessairement restreint ?

La numérisation des œuvres et de la connaissance en général, et leur diffusion sur internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’œuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la toile, indique ce que les internautes peuvent en faire. Elle permet l’indispensable circulation fluide des documents et, si nécessaire, leur modification.

Framablog : un mot pour conclure…

Jean-Pierre Archambault : les enjeux sont forts : appropriation de la connaissance par tous, constitution d’un patrimoine pédagogique mondial accessible à tous. SILLAGES a l’ambition d’y apporter sa modeste contribution.

Notes

[1] Crédit photo : Tulane Public Relations (Creative Commons By)

[2] La licence Creative Commons By-Nc-Sa n’étant pas considérée comme libre au sens des logiciels libres.




Première Copy Party le 7 mars à La Roche-Sur-Yon !

CopyPartyMais que se passera-t-il donc le mercredi 7 mars prochain à la Bibliothèque Universitaire de La Roche-Sur-Yon ?

Ce sera tout simplement la première « Fête à la Copie » !

Rien que le titre on dirait une provocation dans le climat (peu serein) actuel mais en fait pas du tout !

En effet, point de contestation sévère et illicite mais une action conviviale, pédagogique, et 100% légale, pour sensibiliser le public aux problématiques complexes que sont, entre autres, la copie privée, le droit d’auteur, le partage des oeuvres, le libre accès, ainsi que le rôle actuel et futur des bibliothèques.

La législation a tendance à se crisper actuellement face aux nouveaux usages permis par les réseaux. Mais elle a ses petites failles dans lesquelles se sont joyeusement engouffrés une bande de joyeux mais sérieux drilles qui ont bien voulu répondre à quelques questions.

Merci de relayer l’info si, comme nous, vous trouvez l’évènement original et pertinent, car son succès dépend autant de l’affluence le jour J que de l’intérêt médiatique qu’il aura pu susciter.

Interview #CopyParty pour le Framablog

Framasoft : Bonjour, pouvez-vous vous présenter succinctement ?

Lionel Maurel. Conservateur des bibliothèques et juriste. Bibliothèque nationale de France. Auteur du blog S.I.lex, sous le nom de Calimaq

Olivier Ertzscheid. Maître de conférences en sciences de l’information à l’IUT de La Roche sur Yon (université de Nantes) et auteur du blog Affordance.info.

Silvère Mercier, auteur de Bibliobsession, le blog de Silvae, bibliothécaire engagé pour les libertés numériques et la libre dissémination des savoirs.

Bon, alors c’est quoi cette « Copy Party » exactement ?

LM : La Copy Party, c’est une manifestation qui va avoir lieu le 7 mars prochain, à la Bibliothèque Universitaire de la Roche Sur Yon, et au cours de laquelle les lecteurs seront invités à copier, avec leur propre matériel (scanners, ordinateurs portables, appareils photos, smartphones, etc) des documents issus des collections de l’établissement. Ce sera l’occasion de sensibiliser les participants à la problématique du droit d’auteur à l’heure du numérique et de réfléchir aux enjeux de la circulation et du partage des savoirs. D’un point de vue juridique, la Copy Party s’inscrit complètement dans un cadre légal, car elle s’appuie sur l’exception de copie privée, telle qu’elle a été modifiée à la fin de l’année dernière.

D’où est venue cette idée un peu folle ?

LM : A l’occasion de formations sur la propriété intellectuelle données à des bibliothécaires, des questions revenaient souvent de la part de collègues, à propos de l’utilisation par des lecteurs de moyens de copie personnels, comme des appareils photos ou des portables. Jusqu’à présent, il était difficile de donner une réponse certaine, car il existait une « zone grise », en raison du débat non tranché sur la « licéité de la source » dans les conditions de la copie privée. Avec la réforme du 20 décembre 2011, le législateur a explicitement indiqué que la source des reproductions devait être licite pour pouvoir bénéficier de la copie privée. Or le fait d’accéder à des documents documents en bibliothèques constitue une telle source licite (avec des nuances selon les types de documents, mais dans la très grande majorité des cas). D’un point de vue général, l’ajout de la condition de licéité de la source fragilise le régime de la copie privée, en obligeant l’utilisateur à déterminer s’il accède légalement ou non à un contenu. La Quadrature du Net a vivement critiqué cette réforme, en déplorant le fait que l’on fasse peser cette charge sur les utilisateurs, surtout dans le contexte des contenus en ligne, où le diagnostic juridique peut être très difficile à effectuer. Je partage tout à fait cette analyse et il est certain que l’ajout de cette condition de « source licite » a fermé des portes pour l’avenir. Mais je me suis rendu compte qu’il y avait peut-être une chance de donner à cette loi un sens que ses instigateurs n’avaient pas prévu et de retourner la restriction en de nouvelles possibilités. J’ai donc écrit un billet pour montrer les conséquences de la licéité de la source sur les usagers de bibliothèques.

A l’occasion d’une discussion avec d’autres bibliothécaires, à laquelle participait Silvère Mercier, l’idée est venue que cette extension des facultés de copie des usagers de bibliothèque pouvait aussi donner lieu à des évènements où des documents seraient mis à disposition des lecteurs afin qu’ils les reproduisent avec leur propre matériel. Le nom « Copy Party » a été lâché par quelqu’un et nous avons tout de suite compris que nous tenions un concept ! Silvère a développé l’idée de la Copy Party dans un billet sur son blog Bibliobsession, qui a attiré l’attention d’Olivier Ertzscheid. Finalement, la Bibliothèque Universitaire de La Roche Sur Yon, où enseigne Olivier, s’est laissée convaincre d’organiser un tel évènement. La suite, nous la connaîtrons après le 7 mars !

Est-ce vraiment une « première mondiale » ?

LM : Des manifestations ont déjà eu lieu, qui portaient le nom de « Copy Party ». La première s’est déroulée à Berlin en 1984, dans le cadre de ce qui allait devenir le Chaos Computer Club. Ce type d’évènements s’est ensuite multiplié au cours des années 80, au point de faire partie de la « Culture Hacker ». Dans notre cas, nous n’incitons pas à réaliser des copies illicites ou à « cracker » des protections. Il ne s’agit pas d’un appel à la désobéissance civile. La Copy Party de la Roche Sur Yon respecte le cadre légal de la copie privée. Mais il y a peut-être quand même une forme de « hacking » de la loi, lorsqu’on en propose une lecture qui n’avait sans doute pas été prévue par ses auteurs !

Pour revenir à la question, c’est en tout cas la première fois qu’un évènement de ce genre aura lieu dans une bibliothèque en France. Mais peut-être pas la dernière !

Quels messages souhaitez-vous par là-même faire passer ?

LM : La première intention est de sensibiliser les participants aux questions liées au droit d’auteur et à la diffusion des savoirs, en prenant cette manifestation comme un cas pratique. Nous allons en effet rapidement nous rendre compte que même en accédant à des « sources légales », bénéficier de la copie privée reste une chose compliquée. En effet, les règles sont susceptibles de changer selon les types de documents (livres, CD, DVD, jeux vidéo, logiciels, bases de donnée, etc). Il est aussi possible que nous nous heurtions à des DRM, qui empêcheront la reproduction. Il y a aussi la question de l’usage que l’on peut faire des copies réalisées dans ce cadre, qui reste très restrictif (elles doivent être « réservées à l’usage du copiste et non destinées à une utilisation collective »). Ces difficultés vont certainement nous amener « en creux » à réfléchir sur les justifications de ces restrictions à l’accès au savoir, dans le cadre d’une bibliothèque.

Plus largement, l’acte de copie devient de plus en plus problématique, parce que la propriété intellectuelle, ébranlée par l’environnement numérique, ne parvient pas à retrouver ses assises, malgré le durcissement continu du système. Le simple fait que cette Copy Party fasse autant parler d’elle est symptomatique. Alors même que nous allons au fond seulement rester dans le cadre d’une exception prévue par la loi, la Copy Party sent la poudre, comme si toute copie était assimilable à un acte de piraterie ! Ce n’est pas vrai et nous allons le prouver.

Quelles retombées en attendez-vous ?

LM : La Copy Party pourrait être l’occasion d’engager un débat sur la place des bibliothèques dans la société actuelle et leur rôle dans l’environnement numérique. Il faut savoir en effet que les bibliothèques ont de plus en plus de mal à remplir leurs missions dans l’environnement numérique. Dans l’environnement analogique, des mécanismes ont été mis en place par la loi dans les années 1990/2000 pour faciliter certains types d’usage des oeuvres en bibliothèque. C’est le cas par exemple de la loi sur la reprographie ou de celle sur le droit de prêt des livres. Mais ces textes ne s’appliquent pas à l’environnement numérique, ce qui fait qu’utiliser un scanner dans une bibliothèque constitue un véritable casse-tête ou que le prêt de livres numériques n’arrive pas à se mettre en place dans de bonnes conditions. Des exceptions ont bien été votées dans les lois DADVSI et Hadopi en faveur des bibliothèques, mais elles sont très restrictives, voire presqu’inapplicables, notamment parce qu’elles ne permettent pas de mettre des contenus en ligne. La condition juridique des bibliothèques est à repenser, si l’on ne veut pas qu’elles soient tenues à l’écart de la révolution numérique.

L’autre question sous-jacente à la Copy Party est celle des pratiques de partage dans un cadre non marchand. Dans le cadre de la copie privée, il n’est pas possible de « partager » les contenus. Mais nombreux sont ceux qui ont fait un lien entre la licence légale qui a été instaurée pour le prêt en bibliothèque et les propositions de licence globale (ou contribution créative) qui sont avancées comme alternative à la répression du partage en ligne. Il me semble que cette comparaison est pertinente, car la bibliothèque du 21ème siècle, c’est le web tout entier, et une solution est nécessaire pour reconnaître la légitimité de l’accès au savoir et du partage de la culture. La Copy Party ne constitue bien entendu pas une telle solution, mais si elle peut attirer l’attention sur ses enjeux, ce sera déjà bien.

Le fonds de la bibliothèque universitaire est-il riche et multimédia ?

OE : C’est un fonds documentaire typique d’une bibliothèque universitaire (BU). Donc on ne pourra pas nécessairement copier beaucoup de musique ou de DVDs 😉 Mais la particularité de la BU de La Roche sur Yon est qu’elle n’accueille pas uniquement des étudiants et des chercheurs mais est ouverte à l’ensemble des habitants de la ville. Tout le monde devrait donc pouvoir y trouver des documents à copier en fonction de ses centres d’intérêt.

Ici on a donc l’aval et la complicité de la bibliothèque de La Roche-sur-Yon mais imaginez que vous fassiez des émules dans d’autres bibliothèques, ne craignez-vous pas de semer un certain « désordre » ?

LM : C’est un peu paradoxal de parler de désordre, alors que la Copy Party n’est qu’une conséquence de la réforme de la loi sur la copie privée. D’ailleurs, il n’est pas besoin qu’une Copy Party soit organisée pour que les usagers des bibliothèques puissent réaliser des reproductions sur le fondement de la copie privée à partir d’oeuvres empruntées ou consultées sur place. C’est une chose qu’ils peuvent faire au jour le jour et que les établissements ne peuvent pas empêcher. Même s’ils ne souhaitent pas organiser de Copy Parties (ce qui est leur droit le plus entier), il faudra bien qu’ils accèdent aux demandes de leurs usagers et qu’ils accompagnent ces nouvelles pratiques. Je dirais d’ailleurs que cette capacité des usagers à copier avec leur propre matériel devrait plutôt être considérée comme une chance pour les bibliothèques. On constate en effet avec l’évolution technologique que les usagers viennent de plus en plus dans les bibliothèques avec leurs propres équipements (ordinateurs portables, appareils photos, téléphones portables, etc). D’une certaine manière, les bibliothèques ont toujours été des lieux où l’on accomplit en public des activités « privées » (la lecture, l’étude, etc). La nouvelle loi sur la copie privée permet d’accompagner ces nouveaux usages.

Il y aura peut-être cependant à un moment une réaction des titulaires de droits face à ces nouvelles facultés de copie et de circulation des oeuvres, mais les industries culturelles se sont réjouies de l’insertion de cette condition de « licéité de la source ». Il faut à présent en accepter les conséquences. Par ailleurs, rappelons que la copie privée fait l’objet d’une rémunération, dont les individus s’acquittent lors de l’achat de supports vierges et de matériels de copie. C’est aussi vrai des usagers dans les bibliothèques !

Pourrait-on en organiser dans d’autres pays ou est-ce trop lié à la législation nationale ?

LM : Il faut impérativement aller voir le droit de chaque pays pour savoir si l’on peut y organiser des Copy Parties. En Angleterre par exemple, la copie privée n’existe tout simplement pas en général. Certains pays, comme le Canada par exemple, ont mis en place des exceptions spécialement conçues pour que les bibliothèques puissent remettre des copies d’oeuvres (notamment d’articles de revues) à leurs usagers. Le point majeur à surveiller est celui de la licéité de la source, qui modifie sensiblement le périmètre de la copie privée.

Hadopi, Sopa, Acta, etc. ça vous parle quant à l’évènement ?

LM : Hadopi, cela me parle particulièrement oui, car on oublie souvent que « la négligence caractérisée dans la sécurisation de la connexion », qui est le pivot du système Hadopi, s’applique également aux accès publics à Internet et pas seulement aux individus. Cela signifie qu’une bibliothèque, mais aussi une université, un hôpital, un aéroport et même un parc public pourraient recevoir des avertissements et pourquoi pas, se voir couper leur accès à Internet en cas de récidive. Les bibliothèques, que ce soient au niveau français ou international, se sont aussi mobilisées contre l’accord ACTA, au nom de la défense de valeurs comme la liberté d’expression ou l’accès à la connaissance.

Cette litanie de textes répressifs, de plus en plus violents, empêchent qu’un vrai débat soit conduit sur le rééquilibrage entre les droits des créateurs et ceux du public. Les bibliothèques en font très directement les frais, au quotidien, dans l’accomplissement de leurs missions.

La Copy Party sera suivie d’un débat avec les participants qui sera l’accasion de poser ces questions.

Comment peut-on vous aider si on n’a pas la chance de pouvoir s’y rendre ?

LM : Vous pouvez relayer l’information pour donner un maximum d’impact à cet évènement, et il sera également possible de suivre et de participer à distance sur Twitter, grâce au hashtag #CopyParty.

Mais le meilleur moyen de faire avancer les choses, cela reste de sensibiliser à tous les niveaux sur ces questions liées au droit d’auteur et à la propriété intellectuelle, et en particulier les décideurs.

En elle-même, la Copy Party ne peut être qu’un aiguillon. Elle ne change pas fondamentalement le système.

Ce qu’il faut espérer, c’est qu’un jour, la reproduction ne se fasse plus sur la base d’une simple exception étriquée (comme la copie privée), mais qu’elle soit consacrée comme un véritable droit de l’individu, reconnu avec une force égale au droit d’auteur.

—> Copy Party

Pour aller plus loin nous vous suggérons la lecture de ces deux billets issus du blog S.I.lex de Calimaq : Copy Party : prendre au mot la loi sur la copie privée et interroger les pratiques en bibliothèque et Le cadre juridique de la Copy Party en dix questions.




MITx ou les premiers pas de la vraie révolution éducative en ligne ?

Attention, petite révolution éducative potentielle en orbite !

Quoi ? Tout ça pour de simples « cours en ligne » alors que ça fait dix ans qu’on en parle et qu’on en fait !

Oui, mais d’abord il s’agit du prestigieux MIT de Boston[1]. Ensuite ils semblent avoir été conçus pour être capable d’être suivis et administrés totalement en ligne grâce à une efficiente plateforme. Et enfin ils s’inscrivent d’ores et déjà dans le Libre Accès (en prévoyant de rendre au plus vite les ressources libres]).

Je vous laisse imaginer les futurs impacts possibles à l’échelle mondial…

David Wiley - CC by

Le MIT lance ses premier cours gratuits en ligne « totalement automatisés »

MIT launches free online ‘fully automated’ course

Sean Coughlan – 13 février 2012 – BBC
(Traduction Framalang : Lamessen, OranginaRouge)

L’institut de Technologie du Massachussetts (MIT), l’une des universités parmi les mieux classées au monde, a annoncé ses premiers cours gratuits qui peuvent êtres suivis et évalués entièrement en ligne.

Un cours d’électronique, qui commencera en mars, sera le premier test de ce projet en ligne, connu sous le nom de MITx.

Ce cours interactif est conçu pour être totalement automatisé, et les étudiants qui réussissent recevront un diplôme.

L’université américaine dit qu’elle veut que MITx « brise les barrières de l’éducation ».

Ce schéma novateur représente une avancée significative dans l’utilisation des technologies pour permettre l’accès à l’enseignement supérieur.

Université automatisée

Il y a déjà des formations en ligne, mais la proposition du MIT est originale car elle invite les étudiants du monde entier, sans conditions d’admission ni frais, à étudier pour obtenir un des diplômes du MIT.

Le MIT, comme de nombreuses autres grandes universités, rend ses supports de cours disponibles en ligne, mais le modèle MITx va encore plus loin en créant un cours agréé spécifiquement pour les étudiants en ligne.

Les supports de cours et les diplômes sont disponibles en ligne.

Avant Noël, l’université basée à Boston a annoncé son intention de créer MITx. Lundi, elle a exposé la façon dont cela serait mis en place, avec la création du cours 6.001x : Circuits et Electronique, basé sur le cours existant de l’université du même nom. Ce n’est pas une « version édulcorée » ou « allégée » du cours de l’université, explique le porte-parole de l’université.

La principale différence est que la version MITx a été conçue pour les étudiants en ligne, avec un laboratoire virtuel, des manuels numériques, des discussions en ligne et des vidéos qui sont l’équivalent de cours. Il est prévu de prendre 10 heures par semaines, et ce jusqu’en juin.

Anant Agarwal, le directeur du laboratoire informatique et intelligence artificielle du MIT, qui sera l’un des enseignants de ce cours, explique qu’il a été « conçu pour tenter de le maintenir l’engagement et la motivation ».

« Il y a des exercices interactifs pour voir si on a compris » dit le professeur Agarwal. Bien qu’il n’y ait pas formellement de conditions d’entrée, il précise que les étudiants devront avoir des bases en mathématiques et en sciences.

« Code d’honneur »

Dans ce stage expérimental, l’évaluation en ligne dépendra d’un « code d’honneur », dans lequel les étudiants s’engagent à suivre honnêtement le cours. Mais dans le futur, l’université explique qu’il y aura un mécanisme pour contrôler l’identité et vérifier le travail.

Après le premier cours d’électronique, l’université a prévu de proposer des cours dans des domaines comme la biologie, les maths et la physique.

Le doyen du MIT, Rafael Reif, dit que l’université veut profiter de cette expérience pour déterminer ce qui peut être effectivement diffusé par des cours en ligne et ce qui nécessite une indispensable interaction en face-à-face avec l’équipe pédagogique.

Le professeur Reif, parlant depuis Boston, dit que ce type de formation pourrait aussi être extrêment intéressant pour la formation continue et tout au long de la vie de la population adulte active.

« Il est tout à fait possible que les employeurs souhaitent en savoir plus sur cette offre de cours », dit-il. Mais le projet d’accès libre devra aussi répondre aux questions tournant autour de la relation entre les universités traditionnelles et les cours en ligne – particulièrement quand les étudiants dans les meilleures universités américaines payent plus de $50,000 par an (NdT: environ 37 500€). Le MIT fait évidemment une distinction entre le diplôme obtenu par les étudiants en ligne et ceux ayant suivi l’intégralité du diplôme à l’université. Il va également rendre le support MITx accessible à ses propres étudiants.

L’université explique qu’elle a « alloué plusieurs millions de dollars » pour ce projet et se tournera vers le mécénat pour un éventuel financement futur. Mais l’université, célèbre pour ses sciences et sa recherche en haute technologie, a son propre fonds de dotation qui pèse actuellement environ 8.5 milliars de dollars (NdT: environ 6.4 milliards d’euro).

Le MIT, qui se trouve dans le peloton de tête des classements internationaux, explique qu’il ne peut enseigner qu’à une infime partie des élèves qui souhaitent étudier dans cette université. Le développement en parallèle d’un service de cours en ligne est une façon d’élargir le groupe d’étudiants internationaux.

Un nombre croissant d’universités proposent des cours et ressources en ligne. Le service iTunes U, qui est la version académique de iTunes, propose plus de 500 000 cours disponibles en libre téléchargement. L’Open University et Stanford ont eu plus de 40 millions de téléchargements.

Notes

[1] Crédit photo : David Wiley (Creative Commons By)




Un professeur d’Université titularisé grâce à ses contributions dans Wikipédia ?

Un professeur d’Université qui n’hésite pas à glisser son travail pour Wikipédia dans le dossier de candidature à sa titularisation, voilà un fait assez rare pour être signalé.

Cela signifie non seulement qu’il est gros contributeur de l’encyclopédie libre mais qu’il doit également faire comprendre sa démarche auprès de ses collègues composant le comité de recrutement.

Il a même poussé l’audace jusqu’à inclure quelques articles dans le champ Recherche de son dossier, champ le plus important puisqu’il contient les publications du candidat. Il s’agissait en l’occurrence d’articles ayant obtenu le label Article de qualité, ce qui nécessite une validation de la part des autres contributeurs de Wikipédia, une validation par les pairs en quelque sorte.

Les temps changent et il se pourrait bien que cette initiative pionnière se banalise à l’avenir. Tel est du moins notre souhait.

Un article qui vient faire écho à notre dossier Wikipédia et éducation : un exemple de réconciliation relatant un projet qui mériterait lui aussi de faire jurisprudence dans le milieu académique.

Un professeur nommé titulaire en partie grâce à son travail pour Wikipédia

Tenure awarded based in part on Wikipedia contributions

LiAnna Davis – 6 avril 2011 – Wikimedia Community Blog
(Traduction Framalang : Don Rico)

Le palmarès Wikipédia de Michel Aaij est impressionnant : plus de soixante mille modifications, quelques « Bons articles », une « Liste de qualité », et presque cent cinquante « Le saviez-vous ? » publiés. Mais la distinction dont il est le plus fier, c’est sa titularisation à l’université.

Pour les universitaires d’Amérique du Nord, la titularisation représente l’un des points culminants d’une carrière. Pendant des années, les maîtres de conférence construisent un dossier où ils démontrent leur expérience de l’enseignement, leur qualité de chercheur et leur apport à leur discipline.

Une des clés de la titularisation de Michel à été son implication dans Wikipédia.

Michel collabore à l’encyclopédie en ligne depuis des années, surtout en contribuant à des biographies de personnalités vivantes, à des articles académiques ou ayant trait aux Pays-Bas (pays dont il est originaire). Il consacre aussi énormément de temps au travail de relecture et de correction, à la résolution de conflits et à l’accueil de nouveaux rédacteurs. Par ailleurs, en tant que Campus Ambassador (NdT: Ambassadeur Wikipédia dans son université), et dans le cadre de la Public Policy Initiative (Initiative pour la Politique publique), il aide les étudiants à devenir contributeurs. En tant que chercheur, Michel a d’abord publié des articles pointus dans des revues universitaires et s’est lancé dans l’écriture d’un livre, le tout en enseignant dans la section lettres et philosophie à l’université Auburn-Montgomery, en Alabama.

Il y a un peu plus d’un an, Michel a commencé à parler de sa participation à Wikipédia avec ses collègues.

« Au début, ils se sont montrés sceptiques », reconnaît-il. Mais il a réussi à disperser leurs doutes en expliquant le système de validation par les pairs ainsi que le procédé de sélection des bons articles et des articles de qualité. Il a aussi contribué à des articles particulièrement utiles à l’université d’Auburn-Montgomery, notamment l’article sur la faculté et la biographie d’un de ses collègues, qui l’en a chaudement remercié.

« J’ai rédigé des articles dans de nombreux domaines, et bien des fois j’ai pu montrer à mes confrères ce que j’avais accompli dans leur spécialité », explique Michel. « Je me plais à penser que désormais, la plupart d’entre eux a une opinion favorable de Wikipédia. Il faut voir la vérité en face : concernant Guillaume de Dole, contenu qui a obtenu le label « Bon article », on ne trouve aucune base de données ni aucun article encyclopédique qui soit aussi complet que l’article de Wikipédia sur ce poème (ce qui en dit aussi long sur Wikipédia que sur les autres encyclopédies). »

Drmies -CC by-sa

Michel Aaij contribue aussi à Wikimédia Commons par ses photos, comme ce cliché de l’église baptiste de Montgomery, en Alabama. C’est sa fille que l’on voit sur les marches.

Michel a estimé que ses contributions à Wikipédia méritaient de figurer dans son dossier de titularisation. Selon lui, il était alors logique de les inclure dans la partie « Service ». Sur les trois rubriques du dossier, cette partie est celle qui a le moins d’importance, mais elle permet aux professeurs d’expliquer en quoi leurs travaux ont contribué à un champ de recherche particulier. Michel a donc rédigé quelques pages présentant le fonctionnement de Wikipédia, ses contributions, et en quoi sa participation à des articles précis a bénéficié à l’étude de la littérature médiévale.

Mais quelques semaines avant la date de remise de son dossier, deux de ses collègues (le poète dont il avait rédigé la biographie et un spécialiste du XVIIIe siècle) lui ont suggéré, après l’avoir entendu évoquer à plusieurs reprises le processus de validation par des pairs en vigueur pour les Articles de qualité, qu’il devrait aussi en parler dans la section « Recherche » du dossier. En effet, dans de nombreuses universités, l’obtention de la titularisation repose en grande partie sur cette section – c’est d’ailleurs de là que vient l’expression « publie ou péris » (NdT : Publish or perish). Les candidats doivent prouver qu’ils ont publié dans des ouvrages soumis à une évaluation par les pairs.

Dans la rubrique Recherche, Michel a alors ajouté ses articles distingués par le label « Contenu de qualité », deux autres en cours d’évaluation, ainsi que ses articles qui avaient paru dans la rubrique « Le saviez-vous ? » de la page d’accueil, sur des sujets de littérature ou d’histoire médiévale, ou encore sur sa ville de Montgomery, en Alabama.

« Ça m’a demandé un peu de travail d’arrangement et d’organisation, mais ça m’a permis d’inclure une section fournie sur mes contributions à Wikipédia dans la partie recherche de mon dossier, en partant du principe que les « Le saviez-vous ? », les « Bons articles » et les « Articles de qualité » sont tous soumis à une évaluation par les pairs,» explique Michel. « Pour qu’on puisse me juger sur pièce, j’ai ajouté mes articles dans les sections Recherche et Service. Enfin, j’ai suggéré (sur les conseils de trois collègues) que les articles de Wikipédia ne valent pas moins, par exemple, que ceux publiés dans les bases de donnés GALE (NdT : bases de données pour les bibliothèques) – il convient de préciser que nous venions d’attribuer une chaire en partie en appuyant notre décision sur ce genre d’articles bibliographiques. »

Les collègues titulaires de Michel l’ont approuvé à l’unanimité, et le comité universitaire lui a accordé sa titularisation au mois de mars. Pour la première fois peut-être, un professeur était titularisé en partie grâce à ses contributions à Wikipédia.

Michel estime que son CV universitaire était assez solide pour lui valoir la titularisation sans l’apport de ses contributions à Wikipédia, mais il se félicite de les avoir incluses. Si de plus en plus de professeurs candidats à la titularisation suivent l’exemple de Michel, les comités vont devoir ajuster leurs critères d’évaluation pour donner un poids plus juste aux contributions à Wikipédia.

À présent, Michel songe déjà à l’étape suivante : assumer des fonctions d’homme d’entretien, en devenant administrateur Wikipédia.

Un professeur titulaire désireux de nettoyer les plaisanteries et les âneries publiées sur Wikipédia ? Si seulement ils pouvaient être plus nombreux !




Ils sont devenus fous ou la simple mais affligeante histoire d’un étudiant allemand

Nate Bolt - CC by-saUn étudiant allemand cherche à consulter un article référencé sur Internet. Et le cauchemar commence…

On lui indique qu’il ne peut le faire que dans une bibliothèque (publique) ayant acquis les droits sur l’article en question[1].

Il se rend à cette bibliothèque mais il doit attendre car un autre lecteur est dessus et les droits stipulent qu’on ne peut lire l’article simultanément !

Un peu de patience, la place se libère et il peut enfin parcourir son article. Et là, nouvelle stupeur, impossible de sauvegarder, rechercher, ni même copier/coller tout ou partie de l’article !

C’est une histoire démente. C’est une histoire fictive qui se rapproche chaque jour un peu plus de la réalité. Je me demande même si elle n’existe pas déjà quelque part.

Bienvenue au XXIe siècle…

Ce (faux) témoignage est issu de l’excellent livre « Biens Communs – La Prospérité par le Partage » que nous avons évoqué dans un billet précédent. Il fait tristement écho à l’article Pour libérer les sciences de Christophe Masutti. On pourra également lire avec effroi la nouvelle prémonitoire de Richard Stallman rédigée en 1997 : « Le droit de lire ».

Comment ce qui n’est pas rare le devient – Dissertation d’un étudiant sur le droit d’auteur moderne

URL d’origine du document

Extrait du rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Devant rédiger un devoir sur les biens communs, j’ai effectué une recherche sur Internet, laquelle fut fructueuse. J’ai pu télécharger facilement plusieurs textes et en inclure certains passages appropriés dans mon brouillon. Jusqu’à ce que mon attention soit attirée par un texte intéressant, qui était payant, c’est-à-dire qu’il ne pouvait être lu que dans une bibliothèque qui en aurait acquis les droits.

« Aucun problème, me suis-je dit, la bibliothèque universitaire est reliée au net, et son catalogue est accessible en ligne. » Et, de fait, l’article dont j’avais trouvé la référence était indiqué comme « disponible sous format électronique ». Pourtant, lorsque je tentai de le télécharger, un message d’erreur s’afficha: « Cet article n’est consultable que dans l’espace de la bibliothèque. » Je restai sans voix. Pourquoi donc ?

Je pris donc le bus jusqu’à la bibliothèque nationale – un trajet d’une petite heure – et m’orientai jusqu’aux places réservées à la consultation d’Internet. Là encore, je trouvai dans le catalogue en ligne la référence de l’article recherché.

Mais un nouveau message s’afficha à l’écran: « Le recueil recherché est actuellement consulté par un autre utilisateur. La bibliothèque n’a fait l’acquisition que d’un seul recueil et ne peut, selon le principe d’accessoriété au fonds, permettre un accès simultané qu’à autant d’articles qu’elle détient de droits sur l’édition achetée. Nous ne voyons pas dans votre cas une exception à cette règle. » À nouveau, je restai sans voix.

Je n’ai pas compris le terme «accessoriété au fonds», mais j’ai compris ce qu’il signifiait : je devais attendre !

Mais pourquoi donc ? N’avais-je pourtant pas appris récemment dans un séminaire que les ressources électroniques peuvent faire l’objet d’une utilisation non rivale ? Mon utilisation ne porte pas atteinte à celle des autres. J’ai brusquement pris conscience de ce que signifiait le fait de rendre rares et exclusives des choses comme la lecture d’un texte, qui ne devraient pas l’être selon cette théorie.

Bon, un café ne me ferait pas de mal…et, après le café, la voie était enfin libre ! Comme de toute façon l’article était plutôt long, je décidai de le sauvegarder sur ma clé USB afin de pouvoir le relire plus attentivement. «Save as». Une troisième fois, je restai sans voix. Cette fois, le message m’apprit que le texte ne pouvait pas être sauvegardé.

Contraint par la force des choses, je commençai à lire le texte. Puis je décidai de rechercher les passages comprenant les termes « commons » et « bien commun », qui m’intéressaient plus particulièrement. Résultat : « Aucun passage trouvé ». Étrange, c’est pourtant le sujet de l’article ! Je testai avec un mot courant de tous les jours : « Aucun passage trouvé ». La fonction de recherche en plein texte ne fonctionnait pas.

À bout de nerfs, je décidai de ne copier qu’une seule phrase importante, que je souhaitais citer, dans le presse-papiers et de la coller ensuite sur ma clé. Encore une fois, un message d’erreur apparut, où je trouvai finalement l’indication décisive: « Il s’agit d’un PDF protégé par un système de gestion des droits numériques ou digital rights management (DRM). Tous les droits appartiennent à la maison d’édition. Vous ne pouvez lire l’article qu’à l’écran. Vous avez le droit de prendre des notes. »

Je ne m’attendais pas à une telle mesure technique de protection dans une bibliothèque publique. Pour moi, cela signifiait soit que je devais passer les deux heures suivantes devant l’écran pour prendre des notes, comme c’était l’usage à l’époque de Gutenberg, soit que je quittais la salle de lecture en décidant que l’article en question n’avait pas assez importance. Je rejetai d’emblée la troisième possibilité consistant à acheter l’article en ligne à l’éditeur pour 30 euros, d’autant que je n’aurais reçu, même dans ce cas, qu’une licence pour mon usage personnel sur mon propre ordinateur.

Ah oui, et le message d’erreur ajoutait que le système de DRM était « dans mon propre intérêt »…

J’ai renoncé à l’article, mais je voulais tout de même au moins savoir la raison de tout ceci. J’avais toujours associé les questions de droits d’auteur et de copyright aux débats sur l’utilisation de la musique, des vidéos, des jeux ou de la littérature de divertissement. Mais la recherche, l’enseignement, les études ? Je me rappelai alors l’article 5 de la Loi fondamentale allemande :

(1) Chacun a le droit d’exprimer et de diffuser librement son opinion par la parole, par l’écrit et par l’image, et de s’informer sans entraves aux sources qui sont accessibles à tous…

(3) L’art et la science, la recherche et l’enseignement sont libres…

Une bibliothèque publique, ayant fait l’acquisition contre paiement des ouvrages qui y sont disponibles, est accessible à tous, mais je n’y ai pas bénéficié d’un accès libre. Et aurais-je mal compris également le passage concernant la liberté de la science ?

J’appris par la suite, en évoquant cette expérience avec mon professeur, que les droits énumérés dans la Loi fondamentale et ceux qui sont explicitement formulés dans une loi avec des restrictions éventuelles sont deux choses totalement différentes. Mon cas tombait sous la juridiction du droit des auteurs, lequel protège avant tout l’auteur, ou celui qui aurait acquis les droits de celui-ci dans le but de publier et exploiter ses ouvrages.

Certes, il existe bien sûr, afin de garantir l’intérêt public, certaines limites aux droits des auteurs ou des exploitants, qui pourraient permettre l’utilisation pleine et entière de documents électroniques dans les bibliothèques sans avoir à en demander la permission aux ayant droits. Mais seulement lorsque le législateur en dispose ainsi !

Et pourquoi n’est-ce pas le cas en l’occurrence ? Mon professeur me renvoya au paragraphe 52b de la loi sur les droits d’auteur, qui réglemente la « consultation d’ouvrages au moyen de postes de lecture électroniques dans les bibliothèques … » J’y trouvai toutes les dispositions législatives qui m’avaient empêché de travailler à la bibliothèque comme je suis habitué à le faire avec Internet. À vrai dire, je ne comprends pas. Pourquoi nos parlementaires adoptent-ils une loi qui rend l’accès à l’information et au savoir pour les étudiants et les professeurs plus difficile qu’au temps de Gutenberg ? D’autant plus que ce savoir est généralement produit grâce à des financements publics. Il me semble que cela mériterait un recours pour inconstitutionnalité.

En tout cas, j’ai trouvé le sujet de mon devoir :

Ce qui est dans le domaine public ou ce qui est financé par les deniers publics doit rester accessible à tous.

Notes

[1] Crédit photo : Nate Bolt (Creative Commons By-Sa)




Pour libérer les sciences, par Christophe Masutti

Dullhunk - CC byChristophe Masutti est membre de Framasoft, en charge notamment du projet Framabook, notre collection de livres libres autour du Libre. « Livres libres », cela signifie que les ouvrages sont sous licences libres, ce qui a pour effet de maximaliser leur diffusion.

Il est également universitaire et à ce titre acteur et auteur de publications scientifiques. Son expérience, sa pratique et sa rigueur professionnelles nourissent le projet Framabook.

Mais pourquoi, dans l’autre sens, la publication scientifique ne tirerait pas aussi profit du « modèle Framabook » ? Pourquoi ne s’inspirerait-elle pas de ce qui fait la force et la sève du logiciel libre ?

Parce qu’il faut bien le reconnaître, la situation actuelle en est fort éloignée, jusqu’à évoquer, là encore, un « gigantesque Minitel 2.0 ». Alors que les nouvelles technologies et Internet promettent bien plus que cela[1].

Dans cet article clair, précis, accessible et documenté, Christophe Masutti pose les jalons d’un avenir possible et souhaitable de la publication scientifique, un accès à la connaissance réellement au service et au bénéfice de tous.

Pour libérer les sciences

Le document dans son intégralité

Christophe Masutti – 15 décembre 2010 – version 1.0 – Licence Creative Commons By

Préambule

L’objectif de ce texte est de faire valoir l’intérêt d’une diffusion décentralisée et libre des connaissances scientifiques. En partant de l’idée selon laquelle l’information scientifique n’a d’autre but que d’être diffusée au plus grand nombre et sans entraves, je montrerai les limites du système classique de publication à l’ère du format numérique, ainsi que les insuffisances des systèmes d’archives « ouvertes ». J’opposerai le principe de la priorité de la diffusion et à l’aide de quelques exemples, j’aborderai la manière dont les licences libres Creative Commons permettent de sortir de l’impasse du modèle dominant.

Ce document est un document martyr et une large place est réservée à l’opinion de son auteur. N’étant pas spécialiste des aspects juridiques concernant les droits d’auteur, certaines affirmations pourront sembler approximatives voire complètement fausses. Si c’est le cas, n’hésitez pas à commenter. Lire la suite dans son intégralité…

Notes

[1] Crédit photo : Dullhunk (Creative Commons By)




Le long chemin du Libre Accès au Savoir à l’Université

Liber - CC by-saLa question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever[1].

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition : « chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ». Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inacessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT). Mais étonnament, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la techologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisament convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlrement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA.

Notes

[1] Crédit photo : Liber (Creative Commons By Sa)