Orthophonie et logiciel libre – Rencontre avec Rémi Samier

Woodley Wonderworks - CC byFin octobre, la version 1.0 du FramaDVD École, un DVD ressources et logiciels libres à destination des écoles primaires, était finalisée et proposée au téléchargement. Cette sortie a été particulièrement bien accueillie et relayée par de nombreux sites, notamment des sites de circonscription de l’éducation nationale, mais également par des magazines[1].

Le DVD est disponible à l’achat[2] depuis le mois de décembre depuis notre boutique EnVenteLibre et les premières ventes sont encourageantes.

Différents témoignages que nous avons reçus, nous ont montré que le FramaDVD École n’était pas utile qu’aux écoles primaires. Le message envoyé par Rémi Samier, orthophoniste et webmestre du site Orthophonie Libre[3], nous a semblé particulièrement significatif. Nous lui avons donc proposé une interview que je vous laisse découvrir.

Bonjour Rémi, peux-tu te présenter en quelques mots ?

Bonjour à toute l’équipe de Framasoft et aux lecteurs du Framablog, je suis orthophoniste, membre du collectif Giroll et initiateur du projet Contributions et Logiciels Libres en Orthophonie – Logopédie.

Pourquoi portes-tu un intérêt particulier au logiciel libre ? Depuis quand ?

J’ai commencé à m’intéresser au logiciel libre vers 2007 – 2008, principalement par l’intermédiaire des réflexions de Bernard Stiegler et de l’association Ars Industrialis sur les nécessités de développer une politique des technologies de l’esprit et une économie de la contribution.

Puis fin 2008, un ami m’a montré une distribution linux installée sur son PC. J’ai trouvé ça tellement génial que, quelques semaines plus tard, je franchissais le pas en installant Ubuntu sur mon ordinateur portable.

Comment as-tu fait le lien entre orthophonie et logiciel libre ?

Je dois avouer que je me suis lancé dans l’univers du libre en partant de rien, puisque je n’avais aucune connaissance en terme d’informatique, de programmation ou de logiciel. Ayant bien conscience du vaste domaine que je devais découvrir, je me suis rapproché du collectif Giroll pour apprendre en discutant avec d’autres personnes. Puis, comme, j’ai commencé mon exercice professionnel en même temps que mon aventure dans le domaine du libre, je me suis dit que le plus simple pour avancer, c’est d’utiliser dans ma pratique d’orthophoniste tout ce que je pourrais apprendre sur le libre.

Les logiciels libres sont-ils fréquemment utilisés par les orthophonistes ou est-ce marginal ?

Comme une grande partie de la population, les orthophonistes utilisent des logiciels libres, mais sans en avoir vraiment conscience, via leur navigateur web, leur suite bureautique ou le lecteur de contenus audio et vidéo. Par contre l’usage intentionnel de logiciels libres en tant qu’outils pour la pratique orthophonique est relativement marginal. Ce que l’on peut observer, c’est que beaucoup d’orthophonistes vont chercher des outils logiciels ou des ressources gratuites pour leur pratique, sans opérer de différenciation entre libre et gratuit.

Par ailleurs, il existe très peu de logiciels libres spécifiques ou très en lien avec l’orthophonie. Parmi les plus connus, qui sont parfois présentés lors des études d’orthophonie, on peut citer les logiciels CLAN pour l’analyse linguistique de corpus et PRAAT pour l’analyse des paramètres phonétiques et acoustiques de la parole et de la voix sous licence GNU-GPL. Ces logiciels portés par les sciences du langage notamment sont souvent utilisés pour les travaux de recherche en orthophonie et plus rarement en pratique clinique.

C’est pourquoi, avec Alexandre Dussart, auteur du logiciel FriLogos, nous travaillons à l’élaboration de logiciels libres pour la pratique orthophonique et avec le projet Contributions et Logiciels Libres en Orthophonie – Logopédie, nous œuvrons pour la promotion des outils libres afin de faciliter la création et le partage de matériels et de logiciels libres pour l’orthophonie via la plateforme Logophonia.

Comment as-tu eu connaissance de l’existence du FramaDVD École ?

C’est Alexandre Dussart qui m’a parlé du FramaDVD École, car FriLogos est dans la liste des logiciels proposés sur le FramaDVD École. Quand il m’a appris la nouvelle, c’était pour nous un grand pas qui venait d’être franchi !

Comment t’est-il parvenu ?

J’ai téléchargé l’image disque du DVD et je l’ai gravé. Ensuite comme j’utilise VirtualBox pour certains logiciels sous Windows, j’ai découvert que je pouvais ouvrir directement l’image disque sous Windows avec la machine virtuelle, ce qui augmente la rapidité d’exécution du DVD.

Pourquoi t’est-il utile ?

Le FramaDVD École m’est utile pour de multiples raisons :

  • En tant que promoteur du logiciel libre en orthophonie

Le FramaDVD École réunit une grande partie des logiciels libres que nous trouvons intéressants pour l’orthophonie. Il me permet donc de disposer d’un support que je peux diffuser auprès de mes collègues et qui présente l’avantage de faciliter l’installation et la prise en main de ces logiciels. Pour 2011, je vais notamment animer quelques ateliers sur les logiciels libres en orthophonie auprès de mes collègues et je graverai bien évidemment quelques DVD pour leur remettre.

  • En tant qu’orthophoniste

Comme le FramaDVD École s’adresse aux élèves, aux enseignants et aux parents, je vais recommander ce support à mes patients et leurs parents. En effet, pour les enfants qui présentent un trouble (qu’il soit du langage ou autre) ayant souvent pour conséquence de compliquer leurs apprentissages scolaires, il est fréquemment nécessaire de recourir à des supports et des outils pédagogiques complémentaires et adaptés pour faciliter les apprentissages de ces enfants. Généralement, les enseignants, comme les parents vont développer des outils pour aménager et présenter autrement les situations d’apprentissage. Souvent ce travail se fait de façon isolé et les personnes ont parfois le sentiment d’être démuni. Mon objectif sera de proposer de m’appuyer sur les outils du FramaDVD École pour proposer des ressources qui permettront aux enseignants comme aux parents de développer les adaptations nécessaires aux élèves.

Prenons par exemple l’apprentissage de l’anglais qui s’avère problématique notamment pour les élèves au collège présentant une dyslexie-dysorthographique avec un trouble portant sur la discrimination et la manipulation des phonèmes. La difficulté de l’apprentissage de l’anglais est une plainte qui revient très fréquemment par les parents et les enfants présentant une dyslexie-dysorthographie. C’est un point sur lequel les parents se sentent souvent démunis. Maintenant que j’ai découvert le FramaDVD École et les logiciels pour l’apprentissage de langues étrangères, je vais inviter les parents et les élèves dyslexiques-dysorthographiques à s’appuyer sur le logiciel Shtooka, les bases de données audio swac et même le logiciel Anki pour développer des programmes de mémorisation comprenant la forme verbale, la forme écrite et la signification selon la progression et les listes de vocabulaire données par l’enseignant.

L’idéal ensuite, ce serait que toutes les personnes qui développent ce type d’aménagements ou de supports pédagogiques, permettant de faciliter l’accès aux savoirs et aux apprentissages, puissent les partager sur une plate-forme sous licence libre. Cela permettrait notamment lors de la mise en place de Projet d’Accueil Individualisé ou de Projet Personnalisé de Scolarisation de pouvoir proposer aux enseignants, aux parents et aux élèves une palette d’outils en fonction des difficultés et des troubles repérés.

Pour toi, que manque-t-il au DVD ? Quelles perspectives ?

Il est difficile pour moi de dire ce qui manque sur le DVD, car je n’ai pas fini de faire le tour du contenu du DVD. Je ne l’ai pas écrit précédemment, mais j’ai beaucoup apprécié les contenus libres photos, musique, livres, ressources pédagogiques et ressources sur le libre. Notamment les photos sont très utiles en orthophonie pour construire des supports pour travailler la communication verbale et non-verbale.

Au niveau des perspectives, comme je le disais à la question précédente, il serait intéressant de développer en complément du DVD un site de partage de ressources pédagogiques libres.

Par ailleurs pour faciliter l’utilisation et l’appropriation des logiciels et des ressources libres, un système, qui permettrait de synthétiser des retours d’expériences et d’utilisation des outils, couplé à un bon moteur de recherche par mots-clés notamment, serait un outil extraordinaire pour se faire rapidement une idée des possibilités offertes par ces logiciels et ressources libres. En fait, il s’agirait de développer, en complément de plateforme ou d’annuaire présentant les outils, le même type de plateforme mais plus orienté sur les réalisations, les objectifs, les finalités et en présentant les outils libres permettant d’arriver à un tel résultat.

Pour finir, des formations ou des ateliers à destination d’enseignants ou du grand-public (puisque le FramaDVD École s’adresse aussi aux parents) renforceraient également l’appropriation, le partage de ces outils et des ressources ainsi créées.

Quels usages envisages-tu pour le FramaDVD École ?

Un usage pour découvrir de nouveaux outils et exploiter leurs potentialités/possibilités

Un usage pour partager facilement auprès des professionnels et des étudiants en orthophonie les logiciels libres qui sont intéressants en orthophonie

Un usage auprès de mes patients et de leur entourage afin qu’ils puissent disposer de nouveaux outils pour faciliter leur apprentissage.

As-tu des idées pour le diffuser plus largement ?

Un partenariat avec le SCEREN, le CNDP et ses instances régionales permettrait de toucher encore plus facilement la communauté des enseignants. Idem avec les Fédérations de Parents d’Élèves pour toucher les parents.

Le FramaDVD École pourrait également intéresser les organisations de Jeunesse et d’Éducation Populaire, comme le CNAJEP. En y pensant tout-à-l’heure et après avoir effectué quelques recherches, j’ai notamment pu me rendre compte que ces organisations se sont saisies de ces questions. Il est donc possible de s’appuyer sur cette dynamique pour proposer une diffusion du FramaDVD École via les réseaux des associations de Jeunesse et d’Éducation Populaire.

Il pourrait également être bénéfique pour le FramaDVD École d’obtenir la marque Reconnu d’intérêt pédagogique (RIP) par la Ministère de l’Éducation Nationale. Ce serait une véritable avancée, car dans la liste des ressources qui bénéficient de cette marque, il n’y a pas ou peu à ma connaissance de ressources libres. Ce serait également un bon vecteur pour que les instances ministérielles se saisissent des enjeux du libre pour l’enseignement et l’éducation.

Ensuite, je pars du principe que le développement de nouvelles pratiques ou de nouveaux outils doit passer par la formation initiale. Il est ainsi possible d’aller à la rencontre des Universités, des IUFM et des responsables des Masters préparant aux métiers de l’enseignement.

Enfin, avec le développement des ressources libres pour les élèves présentant un trouble ou un handicap se répercutant sur les apprentissages, il est certain que les associations de parents de patients s’approprieront l’outil FramaDVD École.

Quels logiciels libres conseillerais-tu à tes collègues ?

  • Tous les outils facilitant les créations graphiques et notamment la triade : Gimp, Inkscape, Scribus.
  • Tous les logiciels permettant de travailler des fonctions cognitives et/ou permettant de créer de programme d’entraînement de ces fonctions (Anki, FriLogos, etc.) qu’ils soient spécifiques ou non à l’orthophonie.
  • Tous les logiciels permettant de compenser les effets des troubles de nos patients (Clavicom, Chewing Word, etc.)

Si des lecteurs du Framablog souhaitent t’aider, comment peuvent-ils le faire ?

Dans le cadre du projet Contributions et Logiciels Libres en Orthophonie – Logopédie, nous travaillons sur plusieurs axes :

  1. Création de matériels, de supports, de jeux pour un usage thérapeutique (logiciels PAO, dessin, etc.)
  2. Utilisation de logiciels libres non spécifiques à l’orthophonie mais pouvant être adaptés à un travail en séance (logiciels de jeux, de mémorisation, de mindmap, etc.)
  3. Utilisation de logiciels libres comme outil de compensation d’un trouble ou d’un handicap
  4. Création de logiciels libres spécifiques à l’orthophonie

Au-delà des compétences techniques en terme de programmation pour le développement de logiciels libres spécifiques à l’orthophonie, une des ressources précieuses pour l’avancée de notre projet comme celui de Framasoft va être le partage de connaissances et d’expériences : Rédaction de présentations de logiciels et/ou de ressources libres, retours d’expériences sur l’utilisation des outils, rédaction de documentations (guides d’utilisation, tutoriels), etc.

Bien évidemment, si notre travail est très centré sur l’orthophonie avec la participation d’étudiants et de professionnels en orthophonie, nous travaillons avec une diversité de personnes aux compétences diverses, mais toutes très motivées par les enjeux du développement du libre en orthophonie et ce pour le bénéfice des patients et de leur entourage.

Si vous êtes motivés par ce challenge, n’hésitez pas à consulter notre site ou à nous envoyer un courriel.

Pour finir, nous commençons à développer différents partenariats avec des acteurs du libre et de l’orthophonie.

Nous envisageons également :

  • de contacter des équipes et des laboratoires de recherche dans les domaines en lien avec l’orthophonie pour développer des outils thérapeutiques qui s’appuient sur les avancées de la recherche,
  • et de renforcer nos liens avec les communautés libres pour que nos initiatives aient des retombées positives sur les autres initiatives libres et bénéficient du soutien et des compétences de ces acteurs.

Il s’agit de partenariat libre, car le projet n’a pas de personnalité morale. Nous fonctionnons pour le moment comme un collectif et sommes ouverts à toutes les initiatives !

Y a-t-il une question que tu souhaiterais qu’on te pose ?

Ce n’est pas vraiment une question. Ce sont plus des souhaits qui nous tiennent à cœur. Et en cette période de fêtes de fin d’années, c’est plutôt de circonstance !

« We have free dreams! »

Tout d’abord, nous avons un rêve depuis quelques mois, celui d’une distribution linux adaptée aux élèves présentant un trouble spécifique des apprentissages. A l’heure actuelle, certains élèves via la Maison Départementale de la Personne Handicapée (MDPH) et l’Inspection Académique peuvent bénéficier d’un ordinateur avec différents logiciels de compensation pour faciliter leur scolarité. Néanmoins, il est de plus en plus difficile d’obtenir ce type d’aide. Et pour avoir plusieurs patients collégiens qui disposent d’un tel outil, il n’est pas rare que je sois amené à dépanner les ordinateurs, notamment à cause des virus et autres malwares.

Face à ces différents constats, nous pensons qu’un outil informatique sous linux avec des logiciels pour la compensation des troubles pourrait être une solution pour pouvoir équiper un plus grand nombre d’élèves et pour gagner en stabilité sur l’utilisation de l’outil.

Ensuite, étant, depuis plus d’un an, un grand fan de la Framakey et maintenant du FramaDVD École (C’est mon deuxième Noël, où j’offre des clés USB et des DVD pour faire découvrir les supports de Framasoft et le monde du libre à mes amis), je rêve d’une Framakey et/ou d’un FramaDVD, orientés vers les étudiants et professionnels orthophonistes-logopèdes, qui permettraient également d’installer des outils libres sur les ordinateurs de leur patient.

Pour y arriver, nous avons encore besoin de travailler nos connaissances sur les logiciels libres et de bien déterminer nos objectifs pour que le support ainsi créé réponde au mieux aux attentes de la communauté des orthophonistes. Mais nous espérons pouvoir réaliser un tel outil pour 2011 !

Pour finir, nous tenions vraiment à remercier toute l’équipe de Framasoft pour l’intérêt que vous portez à nos réalisations. Nous nous inspirons de plus en plus de la philosophie et des idées développées par Framasoft. Par exemple, pour la vidéo de notre intervention au Congrès National des Étudiants en Orthophonie, nous avons suivi le choix de Framasoft avec le projet Framatube en proposant notre vidéo sur le site blip.tv afin de mettre en avant la licence libre de la vidéo.

Nous avons bien conscience que le projet que nous avons initié est très vaste et qu’il nous faudra du temps pour réaliser nos rêves, mais nous faisons nôtre la maxime de Framasoft. Pour la paraphraser quelque peu, nous dirions : « Les champs à explorer sont infinis, les outils à développer sont multiples, mais le chemin pour y parvenir est libre ! »

Joyeuses fêtes de fin d’années à tous, sous l’étoile du libre !

Notes

[1] À notre connaissance, des articles ont été publiés dans les magazines Les Cahiers Pédagogiques, La Classe, La Classe Maternelle et OpenSource Magazine ainsi que sur les sites recensés sur notre wiki. Nous tenons sincèrement à les remercier. Si vous avez vu circuler l’information ailleurs, n’hésitez pas à nous le signaler.

[2] Les prix sont dégressifs. De 5 € pour un exemplaire acheté à 2,50 € par DVD à partir de 100 exemplaires. Exceptionnellement, les chèques et mandats administratifs sont acceptés pour les établissements scolaires.

[3] Crédit photo : Woodley Wonderworks (Creative Commons By)




Pour libérer les sciences, par Christophe Masutti

Dullhunk - CC byChristophe Masutti est membre de Framasoft, en charge notamment du projet Framabook, notre collection de livres libres autour du Libre. « Livres libres », cela signifie que les ouvrages sont sous licences libres, ce qui a pour effet de maximaliser leur diffusion.

Il est également universitaire et à ce titre acteur et auteur de publications scientifiques. Son expérience, sa pratique et sa rigueur professionnelles nourissent le projet Framabook.

Mais pourquoi, dans l’autre sens, la publication scientifique ne tirerait pas aussi profit du « modèle Framabook » ? Pourquoi ne s’inspirerait-elle pas de ce qui fait la force et la sève du logiciel libre ?

Parce qu’il faut bien le reconnaître, la situation actuelle en est fort éloignée, jusqu’à évoquer, là encore, un « gigantesque Minitel 2.0 ». Alors que les nouvelles technologies et Internet promettent bien plus que cela[1].

Dans cet article clair, précis, accessible et documenté, Christophe Masutti pose les jalons d’un avenir possible et souhaitable de la publication scientifique, un accès à la connaissance réellement au service et au bénéfice de tous.

Pour libérer les sciences

Le document dans son intégralité

Christophe Masutti – 15 décembre 2010 – version 1.0 – Licence Creative Commons By

Préambule

L’objectif de ce texte est de faire valoir l’intérêt d’une diffusion décentralisée et libre des connaissances scientifiques. En partant de l’idée selon laquelle l’information scientifique n’a d’autre but que d’être diffusée au plus grand nombre et sans entraves, je montrerai les limites du système classique de publication à l’ère du format numérique, ainsi que les insuffisances des systèmes d’archives « ouvertes ». J’opposerai le principe de la priorité de la diffusion et à l’aide de quelques exemples, j’aborderai la manière dont les licences libres Creative Commons permettent de sortir de l’impasse du modèle dominant.

Ce document est un document martyr et une large place est réservée à l’opinion de son auteur. N’étant pas spécialiste des aspects juridiques concernant les droits d’auteur, certaines affirmations pourront sembler approximatives voire complètement fausses. Si c’est le cas, n’hésitez pas à commenter. Lire la suite dans son intégralité…

Notes

[1] Crédit photo : Dullhunk (Creative Commons By)




Le long chemin du Libre Accès au Savoir à l’Université

Liber - CC by-saLa question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever[1].

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition : « chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ». Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inacessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT). Mais étonnament, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la techologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisament convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlrement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA.

Notes

[1] Crédit photo : Liber (Creative Commons By Sa)




Une école de la coopération et non de la compétition ?

Rolands Lakis - CC byVingt personnalités ont récemment lancé un appel afin de supprimer les notes à l’école élémentaire.

Parmi ces personnalités, on notera Boris Cyrulnik, Axel Kahn, Daniel Pennac, François Dubet, Richard Descoings, Marcel Rufo ou encore l’ami du logiciel libre Michel Rocard.

L’appel a été repris hier dans un article de Libération et le moins que l’on puisse dire c’est que cela n’a pas laissé les lecteurs indifférents. C’est une belle foire d’empoigne dans les commentaires qui dépassent déjà les cinq cents occurrences !

Au delà de l’intéressant débat, ce qui m’a frappé, et qui vaut mention sur ce blog, c’est la dernière phrase en guise de conclusion :

« Nous appelons tous ceux qui souhaitent réaffirmer que l’école élémentaire doit être celle de la coopération et non de la compétition, à signer le présent appel. »

Consciemment ou non, en plein ou en creux, tous ceux qui défendent le logiciel libre et sa culture défendent également un monde où la coopération n’est pas écrasée par la compétition.

Je ne sais si la seule suppression des notes pour un seul niveau[1] permet d’y arriver (j’aurais même quelques doutes) mais il n’est pas anodin de remarquer que l’opposition coopération / compétition est une grille de lecture de plus en plus souvent utilisée.

PS : Et à l’âge adulte, dans la sphère du travail, ce serait quoi « un monde sans notes » ? Un monde sans discrimination à la fiche de paie ? Avec un « revenu de vie » garanti pour tous ?

Notes

[1] Crédit photo : Rolands Lakis (Creative Commons By)




L’April lance une campagne éducation par voie d’affichage

April - Campagne educationNous nous associons à l’April et son dynamique groupe éducation pour vous proposer de participer ensemble à une campagne par voie d’affichage afin de toujours mieux faire connaître les logiciels libres.

Ce n’est pas du luxe car il suffit de discuter un peu avec profs et élèves pour s’apercevoir que, dans la plupart des cas, soit ils ne les connaissent pas, soit ils en ont une conception erronée où la gratuité a tendance à occulter la liberté. Du coup voici un beau prétexte pour engager de fructueuses conversations.

J’ajoute, quand bien même ce soit toujours subjectif, que cette affiche est fort belle et n’a rien à envier au monde professionnel. Comme quoi on peut aussi y arriver en mode collaboratif et bénévole 😉

Campagne éducation « les logiciels libres : à partager sans compter ! »

Le groupe de travail éducation de l’April lance la campagne « les logiciels libres : à partager sans compter ! ».

Nous appelons l’ensemble des acteurs du système éducatif à diffuser le plus largement possible l’affiche ainsi que la carte postale téléchargeables ci-dessous. Salle des professeurs, casiers, salles de réunion, panneaux d’affichage divers, CDI, salles de cours… Faisons ensemble de cette campagne le succès qu’elle mérite !

Nous remercions vivement Antoine Bardelli pour l’idée initiale et la réalisation graphique ainsi que l’ensemble des contributeurs au groupe de travail Éducation de l’April.

Rejoignez la liste de diffusion du groupe de travail éducation de l’April.

Toutes les versions du poster

Une paire de ciseaux et du scotch et tous les formats sont à votre portée :




La promiscuité sans fil des réseaux WiFi publics

David Goehring - CC-BySe connecter à un Wifi public dans un parc, une gare ou un café [1] pour accéder à Internet, c’est un peu comme passer par la salle d’attente du médecin avant une consultation. Dans les deux cas, vous avez confiance en votre destination [2], mais vous êtes au préalable enfermé dans un espace avec des étrangers, tous plus ou moins malades.

En effet, le WiFi d’un café vous connecte, comme la salle d’attente, avec votre entourage direct, sans que vous ayez rien demandé. Or, si votre dossier médical est confidentiel, il suffit de faire tomber ses papiers dans une salle d’attente pour que toutes les personnes présentes puissent les lire, et il suffit de se connecter (via un WiFi public) à un service qui n’utilise pas le protocole HTTPS pour que votre entourage connecté puisse s’immiscer dans votre session et votre intimité.

Les coupables ? Les sites conservant à votre place des éléments de votre vie privée d’une part, et proposant d’autre part et sans la protection du petit cadenas qui dénote de l’utilisation du protocole HTTPS, de « garder votre session ouverte » grâce à un cookie. Si vous y prenez garde, ce n’est pas le cas des services en ligne de votre banque.

Toutefois, si l’auteur est assez pessimiste dans son petit billet complémentaire (reproduit ici à la suite du premier) face aux moyens de protection à notre disposition, il existe plusieurs extensions Firefox pour limiter les risques sans trop se compliquer la vie, citons (sur les bons conseils de Goofy) HTTPS Everywhere, et Force-TSL. De plus, il me semble également assez simple de se connecter, où qu’on soit, d’abord à un VPN personnel, ou directement en SSH sur son serveur à soit (voir l’extension Foxyproxy de Firefox), pour surfer ensuite l’esprit tranquille et sans laisser de traces locales, comme si on était à la maison. D’ailleurs, votre WiFi chez vous, il est protégé comment ?

Quand le berger prévient les moutons à New York City

Herding Firesheep in New York City

Gary LosHuertos – 27 octobre 2010 – TechnologySufficientlyAdvanced.blogspot.com
Traduction Framalang : Goofy, Pablo, cheval_boiteux

On a beaucoup parlé de Firesheep ces derniers jours. Cette extension gratuite pour Firefox récolte pour vous les cookies qui sont envoyés depuis un réseau WiFi non protégé n’utilisant pas le protocole SSL. Vous la mettez en route, elle collecte les cookies de Facebook, Twitter et de 24 autres sites (par défaut). Ensuite, vous pouvez voler l’identité d’un compte et obtenir l’accès sous cette identité.

L’extension n’a rien de scandaleux en elle-même. Si vous êtes un développeur un peu compétent, vous savez depuis longtemps que cette faille existait, n’est-ce pas ? Mais quid du reste du monde ? Tous ces gens qui n’ont jamais entendu parler de cette nouvelle menace si facile d’accès, qui n’ont pas été alertés par leurs amis, qui ne regardent pas Engadget, ni Slashdot, ni ABC Pronews7 à Amarillo ?

Je me suis dit que j’allais faire passer le message et aider les béotiens après leur travail, puisqu’il y a un grand Starbucks tout près de chez moi. J’y suis allé, j’ai acheté un peu de nourriture malsaine, j’ai ouvert mon portable et lancé Firesheep. Moins d’une minute plus tard, j’avais cinq ou six identités disponibles dans le panneau latéral. Trois d’entre elles étaient sur Facebook.

Absolument rien de surprenant ; Firesheep n’est pas magique, et tous ceux qui vont au Starbucks savent qu’un tas de gens y mettent à jour leur statut Facebook sans faire attention, tout en sirotant leur café au lait. J’ai pensé que j’allais y passer un peu plus de temps, j’ai donc écouté un peu de musique, parlé à quelques amis, et le plus important (mais pas le plus simple) je n’ai navigué sur aucun site avec le protocole standard HTTP (et surtout pas sur Facebook évidemment).

Environ une demi-heure plus tard, j’avais récolté entre 20 et 40 identités. Puisque Facebook était de loin le service le plus représenté (et qu’il détient plus d’informations personnelles que Twitter) j’ai décidé d’envoyer aux utilisateurs des messages depuis leur propre compte, pour les avertir des risques auxquels ils s’exposaient. J’ai fait un modèle de message sympa qui précisait la localisation du Starbucks, la nature de la vulnérabilité, et comment y remédier. J’ai envoyé des messages aux 20 personnes autour de moi.

J’ai nettoyé le panneau latéral, retiré mes écouteurs, et j’ai attendu. J’ai entendu quelqu’un marmonner un juron pas très loin, et me suis demandé si mon message en était la cause. Pendant le quart d’heure suivant, je n’ai entendu strictement personne parler de ce qui venait se passer (pourtant ceux qui fréquentent les Starbucks ne sont le plus souvent pas du genre à tenir des conversations discrètes). Pourtant, j’ai pu vraiment constater une nette chute du nombre d’identités que je pouvais récolter quand j’ai relancé Firesheep.

C’était un soulagement — en voilà qui avaient compris le message. Avec un peu de chance, ils allaient alerter leurs amis, mettre à l’abri leur femme et leurs enfants. J’ai de nouveau nettoyé le panneau latéral, et après une vingtaine de minutes de conversations impromptues j’ai vu que cinq identités que j’avais déjà croisées étaient revenues dans mon troupeau.

C’était assez surprenant. Avaient-ils reçu le premier message ? Je me suis mis sur leur compte avec leurs identifiants, et en effet ils l’avaient reçu. L’un d’entre eux était même sur Amazon.com, site contre lequel j’avais mis en garde dans mon premier message. Je l’ai choisi pour première cible : j’ai ouvert sa page perso sur Amazon, j’ai repéré un truc sur lequel il avait récemment jeté un coup d’œil et lui ai envoyé un mot : « non, c’est pas sérieux » sur Facebook depuis son propre compte, avec un clin d’œil sur ses goûts musicaux.

J’ai encore une fois effacé les identités, attendu dix minutes, et lorsque j’ai à nouveau rassemblé mon troupeau avec Firesheep, il était parti. Mais il y en avait encore quatre qui restaient là. Peut-être, me suis-je dit, qu’ils ont cru que c’était un message d’avertissement automatique les ciblant au hasard (bien que j’aie mentionné leur localisation dans un rayon d’une trentaine de mètres). Donc, un dernier message était nécessaire.

J’ai bricolé un très court message (le premier était peut-être trop long ?) et je l’ai envoyé aux quatre, une fois encore avec leur propre compte :

« C’était vraiment pas une blague l’avertissement sur la sécurité. Je n’enverrai plus d’autre message après celui-ci –– à vous de prendre sérieusement en main votre propre sécurité. Vous êtes au Starbucks XYZ connecté de façon non sécurisée, et absolument n’importe qui peut accéder à votre compte avec l’outil approprié nécessaire (et disponible à tous). »

Vingt minutes ont passé, et tous les quatre utilisaient encore Facebook frénétiquement. Encore une fois, j’ai envisagé qu’ils auraient pu ne pas recevoir le message, mais en vérifiant leur compte j’ai vu qu’ils l’avaient bel et bien reçu.

Voilà ce qu’il y a de plus choquant à propos de la sécurité sur Internet : ce n’est pas que nous soyons tous scotchés sur un réseau global qui tient avec des bouts de sparadrap et laisse béants d’horribles failles de sécurité ; ce n’est pas non plus qu’un outil librement disponible puisse récolter des cookies d’authentification ; et ce n’est toujours pas qu’il y ait des gens pas du tout au courant de l’un ni de l’autre. Ce qui est absolument incompréhensible, c’est qu’après avoir été averti d’un danger (et sur son propre compte !) on puisse tranquillement ignorer l’avertissement, et reprendre le fil de ses activités.

Mais enfin j’ai tenu parole et n’ai pas envoyé d’autre message. J’ai rangé mon matériel, fait un petit tour dans le café, et reconnu plusieurs personnes auxquelles j’avais montré leur vulnérabilité. Je n’avais pas laissé d’indices sur ma propre identité, moins par crainte de rétorsion que parce que l’intrusion dans la vie privée est encore plus traumatisante quand elle est commise par un étranger complet, dont on n’a pas la moindre chance de découvrir l’identité.

En revenant chez moi, j’ai réfléchi à ce que cette expérience révélait de notre société. Peu importe le nombre de mesures de sécurité que nous procurons au monde entier, il y aura toujours des gens qui laisseront la porte ouverte, même s’ils ont été victimes d’une intrusion. Le maillon le plus faible de la sécurité c’est et ce sera toujours la décision de l’utilisateur.

De retour dans mon appartement, j’ai commencé à m’installer — et c’est le moment où je me suis rendu compte que pendant toute la soirée j’avais eu la braguette grande ouverte. La preuve par neuf finalement : nous nous baladons tous avec des vulnérabilités qu’il nous reste à découvrir.

Addendum

Herding Firesheep Addendum

Gary LosHuertos – 04 novembre 2010 – TechnologySufficientlyAdvanced.blogspot.com
Traduction Framalang : Siltaar, RaphaelH, Goofy

À la suite du billet précédent, je me suis dit qu’en voulant faire court j’avais omis quelques informations. Ceci sert donc d’addendum à mon précédent billet, et a été rédigé de la manière la plus courte possible.

Le message original envoyés aux clients était le suivant :

Comme vous utilisez Facebook sans chiffrement dans un Starbucks, votre compte a été compromis. Je ne suis qu’un amical client du Starbucks qui a souhaité vous prévenir de cette vulnérabilité.

Vous pouvez en apprendre davantage en cherchant des informations sur « Firesheep ». Il n’y a pas vraiment de solutions disponibles pour protéger votre compte Facebook lorsque vous êtes connectés à un réseau public, et je vous recommande donc simplement de ne pas vous y connecter lorsque vous êtes dans un Starbucks. Cette faille affecte également Twitter, Amazon.com, Google (mais pas Gmail), et quantité d’autres services.

Votre mot de passe n’a pas été compromis. Vous déconnecter de Facebook est tout ce que vous avez besoin de faire.

Pour préciser mes motivations, laisser un compte Facebook sans protection ne signifie pas seulement que quelqu’un peut regarder vos photos, vos coups de cœurs et messages. Un compte Facebook compromis donne à quelqu’un d’autre l’accès à votre identité, lui permettant de se faire passer pour vous auprès de vos amis, ruinant potentiellement des relations. S’il est possible de rattraper les choses ensuite, le temps et l’énergie que ça demande sont importants, surtout pour quelqu’un qui a beaucoup d’amis. Quelqu’un envoyant un faux message à l’un de vos amis n’est peut être pas un gros problème, mais un faux message envoyé à 500 de vos amis est déjà plus gênant. D’autant plus qu’il peut y avoir des collègues de travail, des membres de votre famille, ou des clients dans ces 500 personnes.

Concernant la légalité de mes actions : ça n’était pas l’objet de mon article. On peut toujours spéculer sur fait que je finisse en prison, mais c’est hors sujet par rapport à ce dont je parle dans mon billet : les sites non protégés comme Facebook et Twitter sont dangereux pour leurs utilisateurs. Il semble plus intéressant de consacrer son énergie à faire passer le mot plutôt que de troller sur mon éventuelle incarcération.

Enfin concernant ce que les utilisateurs peuvent faire, la meilleure réponse à l’heure actuelle est : rien. Ne vous connectez pas aux réseaux non protégés pour utiliser ces sites web, ou bien utilisez une application qui n’utilise pas d’authentification par cookie non protégée (pour ce que j’en sais, l’application Facebook pour iPhone ne le ferait pas). Assurez-vous que votre réseau WiFi domestique est chiffré en WPA, voire en WPA2 (le WEP est trivialement déchiffrable). Si vous utilisez Facebook au travail sur une connection sans-fil, vérifiez le chiffrement du réseau. La faille de sécurité ne vient pas seulement de Firesheep, elle vient du manque de protection des connexions. La menace la plus grande vient des outils automatisés qui existent depuis des années [3].

Notes

[1] Crédit : CarbonNYC David Goehring Creative Commons By

[2] Et le sujet ici, n’est pas savoir si cette confiance est bien placée…

[3] Voir la magie des Google Cars expliquées par PCINpact ou ZDNet par exemple…




FramaDVD Ecole : des ressources libres pour l’école primaire

FramaDVD EcoleDans la série « projets Framasoft », je voudrais le FramaDVD. Et plus exactement le « FramaDVD École ».

Rappel : le FramaDVD est une compilation des meilleurs logiciels libres pour Windows, sélectionnés par Framasoft, auxquels nous avions ajouté le liveCD Ubuntu, ainsi que de très nombreuses ressources libres (textes, vidéos, musiques, photos, etc) afin de montrer que la culture libre allait aujourd’hui bien plus loin que le logiciel libre. Co-réalisé avec une équipe d’étudiants aussi dynamiques que sympathiques, ce DVD 100% libre a été largement diffusé depuis sa sortie (en septembre 2009). Une mise à jour est d’ailleurs prévue pour les prochaines semaines.

Mais l’un des avantages du 100% libre, c’est entre autre la possibilité de décliner un projet libre existant pour l’adapter à différents besoins.

Et c’est ce qui s’est passé avec le FramaDVD École. Cyrille Largillier, directeur et professeur des écoles, membre déjà très actif du projet Framakey, s’est proposé de créer un DVD destiné à favoriser l’usage des TUIC à l’école primaire. Et, pour joindre l’utile à l’agréable, favoriser l’usage des logiciels et de la culture libre dans ces mêmes écoles.

—> La vidéo au format webm

En plus d’un projet libre, il s’agit bien là d’un projet collaboratif. Il a en effet été conçu avec l’aide d’autres communautés. Notamment :

  • ASRI Education : pour l’intégration de sa distribution GNU/Linux particulièrement légère, adaptée aux enfants et aux adultes ;
  • EducOO : pour l’intégration d’OOo4kids, une suite bureautique dérivée d’OpenOffice, elle aussi adaptée aux enfants, dont nous vous avions déjà parlé ici ;
  • Okawix (ou plus exactement la société Linterweb, qui a développé le logiciel libre Okawix) : grâce à Okawix, le FramaDVD École intègre l’excellente encyclopédie pour enfants Vikidia, en version hors ligne, pour les écoles ou les foyers où Internet n’est pas ou peu disponible.

Après plusieurs mois de travaux, nous sommes donc fiers de vous annoncer la naissance du FramaDVD École !

Conçu spécifiquement pour les élèves et les enseignants des écoles, le FramaDVD École, doté de nombreuses fonctionnalités, comprend notamment :

• Plus de 130 logiciels libres à installer, pour Windows, répartis en 5 catégories principales :
1. Général : des logiciels pour tous (bureautique, graphisme, Internet…)
2. Élève : pour travailler dans toutes les disciplines de l’école primaire ;
3. Enseignant : pour aider les professeurs à préparer leur classe ;
4. Handicap : pour faciliter l’intégration des élèves en situation de handicap ;
5. Jeux : pour se divertir intelligemment ;

• Des copies d’écran ou des vidéos et des notices qui présentent les fonctionnalités de chaque logiciel ;

• Des tutoriels qui expliquent comment utiliser ces logiciels en classe ;

• Des ressources pédagogiques libres;

• Des textes, vidéos, images et sons utilisables et diffusables librement;

• Un installateur de logiciels qui permet en quelques clics d’ajouter très rapidement de nombreuses applications sur son ordinateur;

L’encyclopédie pour enfants Vikidia disponible hors-ligne, sur le DVD, grâce au logiciel Okawix;

Une distribution GNU/Linux particulièrement adaptée aux écoles, ASRI Éducation.

Le DVD est bien évidemment en libre téléchargement.

Cette compilation représente une contribution pour le développement des TUIC (Techniques Usuelles de l’Information et de la Communication) et en particulier des logiciels libres dans les classes.

La liste des applications et contenus est visible sur la page du projet.

Par ailleurs, il sera possible d’ici quelques semaines d’acheter ce DVD à bas prix sur notre boutique en ligne : EnVenteLibre.org. Si vous êtes intéressés, merci de remplir le formulaire dédié afin que nous puissions faire presser le DVD en quantité suffisante.

Enfin, suivant le succès des ventes du DVD, une partie des bénéfices sera redistribué aux communautés participantes, et nous envisageons un programme inspiré du “Get 1 Give 1” d’OLPC qui permettrait de faire parvenir gratuitement des exemplaires dans les pays à faible connectivité.

Bons téléchargements [1] !

Téléchargement et informations complémentaires sur la page officielle du FramaDVD Ecole.

Notes

[1] Le miroir principal est proposé par nos amis suisses de l’EPFL, qu’ils en soient ici grandement remerciés. Si vous souhaitez participer au réseau de miroirs, vous pouvez nous aider.




Logiciel libre et développement durable, même combat ?

416style - CC-byAu détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin [1].

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Frédéric Bordage et François Letellier – GreenIT.fr

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du « Green IT » cherche à réduire l’empreinte écologique des Technologies de l’Information et de la Communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du « Green IT » consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre à la rescousse

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont architecturés autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « Libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « Green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée imposée par des éditeurs propriétaires et monopolistiques. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le développement durable ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 [2]. Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.

Votre avis ?

Frédéric Bordage et François Letellier contribuent au blog collectif GreenIT.fr qui fédère la communauté francophone des acteurs du Green IT.

Notes

[1] Crédit photo : 416style – Creative Commons Paternité

[2] Voir « Facteur 4 » dans le glossaire pointé.